Commentaires : 3 mythes (erronés) sur l’intelligence artificielle

L’IA s’est imposée dans notre vie depuis quelques mois maintenant, mais derrière les promesses quasi magiques de ces robots se cachent des limites bien concrètes. Revenons sur 3 mythes qui entourent encore l’intelligence artificielle et ses applications.

Là où l’IA devient inutile voire dangereuse, c’est quand on lui demande quelque chose en rapport avec l’avenir : de prédire l’avenir.

On ne peut pas demander à une IA si le Dollar va rester stable ou lui demander de prendre des décisions sur les marchés financiers, pour les exemples cités.

Ce n’est pas comme un jeu d’échecs sur ordinateur qui peut prédire les coups suivants d’une case à une autre à partir de sa base de donnée. Tout ce qui est humain est beaucoup plus compliqué.

Il faut juste arrêter de croire tout et n’importe quoi à propos de l’IA, ce n’est pas la panacée, ce ne sont que des algorithmes qui ne feront que faire ce qu’on a demandé de faire. Si un modèle n’a jamais été entraîné avec une image d’un chat, il sera incapable de savoir à quoi ressemble un chat tout simplement.

La machine a pour principal avantage la capacité de traitement absolument phénoménale par rapport au cerveau humain, et non le jugement ou d’autres capacités à ressentir des émotions (je serai bien tenté d’ajouter « pour le moment » vu la vitesse où ça évolue).

4 « J'aime »

@Squeak Quelle différence entre « capacité de traitement » et le jugement ?

Et en prime, est-il nécessaire de ressentir des émotions pour émettre un bon jugement ?

1 « J'aime »

En même temps. Les humains sont également
incapable de dessiner un chat s’ils n’en n’ont jamais vu. Il n’y a qu’à regarder les illustrations du moyen âge avec des lions ou des éléphants pour s’en rendre compte. Pourtant ils avaient lu des descriptions.

Ce qui me dérange le plus c’est la façon où elle est entraînée.
Demandez à dall-e de représenter une femme et il vous représente une femme de 18 à 20 ans de 1m70 pour 50kg généralement très belle, type magazine.
Si tout est basé dans ce style c’est perturbant.

Quand une I.A. commencera à poser une question autre que « Comment puis-je vous aider aujourd’hui ? » , je pense que ce sera à nous de commencer à nous poser des questions.

Le cerveau humain semble faire la même chose quand il condense des exemples d’êtres humains en un prototype, une partie de la beauté semble provenir de la distance avec ce prototype.

2 « J'aime »

La meme chose peut-etre dit d’un etre humain cela etant. Ca n’empache pas beaucoup de personnes de faire du previsionel sur le futur.

1 « J'aime »

Capacité de traitement pour moi : c’est la vitesse à laquelle une machine peut emmagasiner des informations, faire des liens entre-elles etc. Une IA peut absorber le contenu de dizaines de livres en quelques secondes et pourrait les résumer, créer d’autres histoires similaires, « inventer » de nouveaux personnages. Mais l’IA ne sait pas juger si le résultat qu’elle fournit est bien ou mal. Ce qui pourrait être dangereux et immoral.

J’imagine qu’il existe déjà sur des sites underground des modèles d’IA entraînés avec des choses immorales, et donc pouvant produire des contenus vraiment trash. Et ça, c’est inquiétant.

Il conviendra toujours à l’humain de contrôler l’IA pour éviter des dérives.

2 « J'aime »

Plus aucun humain ne peut battre un ordinateur aux échecs .Nous ne sommes que des robots biologiques avec des capacités limitées , rien de plus .
Il y a plusieurs sortes de futur ,court-terme jusqu’à long terme .T
out dépend de quoi on parle .
D’ailleurs qui peut savoir si cet article a bien été rédigé par un humain ou par une AI ?

1 « J'aime »

À mon avis, le contenu trash n’est pas un problème en soi, c’est comme maintenant, le contenu trash existe, mais tous les sites qu’on fréquente en général sont modérés.

Skynet prendra le contrôle des machines en 2024 :face_with_hand_over_mouth:

Ne faut il pas considérer tout de même la variable économique, celle qui dicte en définitif à peu près tout. Si l’I.A est force de proposition à faible coût (capable de traiter un corpus énorme de données en un temps record comme aucun être humain … et surtout pour un coût ridicule par rapport à l’humain), il sera très tentant de retenir les propositions I.A dans une prise de décision. Parce que dans beaucoup de cas, la vitesse est primordiale. La course à la vitesse peut s’avérer celle première qu’il faut gagner pour remporter une compétition économique. Et que ces propositions ne soient pas parfaites (ici au sens optimales économiquement car par exemple tout ce qui relève de la déontologie … si gain avéré, on sait bien que l’humain s’assoit très vite dessus) n’est même pas vraiment à considérer (d’ailleurs il très difficile d’évaluer la portée réelle d’une décision à partir d’un certain niveau). Les humains ne prennent pas des décisions optimales, loin de là. Les prises de décisions sont très souvent réalisées par des groupes des personnes hors sol, qui n’ont du problème traité qu’une vision synthétique et biaisée, produite par les différentes couches de reporting. Il ne me semble pas déraisonnable d’envisager que l’I.A puisse, outre nous conditionner par production massive de données/informations biaisées, « indirectement » (le décideur aura l’illusion de la décision) commander aux humains à l’avenir. Et c’est une vision absolument effrayante.

"Là où l’IA devient inutile voire dangereuse, c’est quand on lui demande quelque chose en rapport avec l’avenir : de prédire l’avenir.

On ne peut pas demander à une IA si le Dollar va rester stable ou lui demander de prendre des décisions sur les marchés financiers, pour les exemples cités."

Je ne vois pas pourquoi tu lâches précisément ça ?!
C’est au contraire dans ces logiques « floues » qu’elle est très bonne, sout le concept est justement dans le fait de deviner « la suite d’une proposition » par reconnaissance de schémas ( le T « transformers » de chat GPT)

Et justement, ça fait un moment qu’on a déjo des IA qui aident voir qui jouent massivement en bourse car elles « voient » bien mieux que nous les tendances, les cycles etc.

« Et c’est une vision absolument effrayante. »
Et si au contraire, c’était une vision rassurante ?

  • Musk a toutes les peines du monde à empêcher une IA d’être « de gauche », lui qui voulait du réac et du droitardé primaire à l’américaine, achoppe sur le fait que les données « fiables » sont issues du monde de la recherche, et elle plaident rarement pour une vision réactionnaire sociétalement.
  • des mesures récentes ont donné l’IA systématiquement plus empathique que les toubibs humains dans les essais de diagnostics (en plus du fait que GPT 4.5 s’est montré plus précis qu’eux )

Par sa capacité à ne PAS avoir à travailler avec des données résumées et partielles, on a aussi de grande chances que les décisions politiques de IA, non influencées par nos biais, soient bien plus pertinentes que les nôtres dans absolument tous les domaines.

L’IA ne va pas se contenter d’être meilleure pour jouer aux échecs, elle va l’être dans tous les domaines y compris ceux de la décision, c’est une simple question de temps.

Le « meilleur » lorsqu’on investie le champs infiniment complexe de l’humain, est quasi impossible à définir (déjà parce que souvent, mieux pour l’un, c’est moins pour l’autre). A un certain niveau de décision, il est impossible objectivement de pointer une décision comme la meilleure (on le fait souvent après coup, une fois l’histoire écrite, en réduisant tout à trois quatre causes et effets (on ramène le complexité du réel à notre petit niveau humain. Alors qu’un grain de poussière aurait pu transformer cette excellente décision en erreur absolue).
L’homme est assurément plein de biais. Mais l’I.A l’est et le sera tout autant (comme vous le pointer sur le sujet de l’I.A de gauche). En revanche les biais de l’homme sont parfois bien identifiables, peuvent être pris compte (par exemple lorsqu’on constitue un jury), voir être corrigé. L’I.A est une boite « bien plus » noire, dont il est hasardeux et difficile d’infléchir les biais (énorme masse de données indéfinies => grosse inertie).
Le meilleur n’est pas nécessairement le mieux.
Oui je vous rejoint sur un point : on peut raisonnablement penser que l’I.A traitant plus de données, peut approcher des solutions efficaces dans tous les domaines.
Mais avoir le pouvoir de décision est fondamentale pour l’humain, une des premières choses pour lequel l’humain se bat (toute l’histoire de l’humanité raconte ce combat de l’homme pour obtenir le pouvoir de décision). L’individu se bat pour être chef (et je pense en premier lieu pas pour exercer son pouvoir sur les autres, mais pour s’affranchir du pouvoir des autres. C’est le second point la motivation première, essentielle).
Un travail pour lequel on vous ôte tout pouvoir de décision devient tout de suite une tâche purement aliénante (un préparateur de commande, boulot de merde, était tout de même une tâche moins aliénante quand vous n’étiez pas piloté par un algo. Dans les interstices, l’humain pouvait y glisser une part de décision).
Une des raisons pour lesquelles l’homme joue, y trouve de l’apaisement, est justement que le jeu lui donne le pouvoir de décision. Qu’il peut l’exercer à volonté
Et là on devrait se réjouir de renoncer au pouvoir de décision au profit d’une entité qu’on placerait donc au dessus de nous (enfin, nous, la part des gueux, car ceux qui seront à la tête de ces I.A veilleront eux bien à conserver leur position. Hors à perdre le contrôle de leur monstre).
La force de l’I.A devrait être circonscrite à des domaines très précis, strictement délimités, où le gain serait à ce point indiscutable qu’il prévaudrait sur le renoncement au pouvoir de décision.
Hors la course étant lancée, l’I.A étant aux mains d’entrepreneur privées, qui petits humains, sont pilotés par des intérêts personnels et médiocres se résumant bien souvent à un enrichissement maximal, c’est tout le contraire que se dessine.

Je peux te la proposer autrement :

Si ton IA a toujours « plus raison que toi » dans absolument tous les domaines connus, et ce sera le cas à terme, si tu veux garder la décision, tu peux, c’est toi qui donnera le « Go »

Mais c’est bien l’IA qui

  • t’auras proposé les options les plus pertinentes, elles mêmes classées par ordre de pertinence
  • t’auras expliqué pour chacune d’entre elles causes et conséquences de la décision
  • aura pu prendre en compte, pour chacune d’entres elles, un nombre bien supérieure de critères, et leur avoir donné une pondération que peu d’hommes pourraient faire

au final, 9.999x sur 10, si tu veux absolument décider, tu te borneras probablement à superviser et valider la décision d’une IA.

ET je ne suis pas vraiment d’accord avec ton premier paragraphe, tu traduis ici NOS limitations, mais si l’IA gagne déjà en bourse comme au jeu de go, c’est précisément qu’elle a moins de biais.

Bien sûr qu’elle en a,
surtout si ses sources de données sont elles mêmes biaisées, mais plus on va l’alimenter en sources fiables et relues par les pairs, plus ses décisions dans un domaine précis seront celles d’une sorte de super-expert/chercheur de ce domaine, donc sans/moins de « parasitisme » permanent de nos idéologies.

Une IA, surtout si on imagine une IA-G, pourra être « câblée » par une éthique utilitariste et des lois bayésiennes qui seront toujours plus « humanistes » et justes que ce qu’un humain lambda proposera.

Et ce sera AMHO, après la claque Dall-E / MidJourney puis Chat-GPT, la prochaine grosse blessure narcissique de l’humain .

et franchement, tant mieux !
nous sommes de mauvais empathes, nous sommes souvent injustes, nous refusons souvent d’admettre des datas qui contreviennent à nos idéologies - pas la machine si elle est spécifiquement câblée pour ça.