Commentaires : Anthropic a perdu le contrôle de son IA et ne sait pas comment elle fonctionne

Les modèles d’IA générative d’Anthropic impressionnent par leur efficacité. Pourtant, même leurs concepteurs admettent : personne ne comprend vraiment ce qui se passe à l’intérieur. Dario Amodei, patron d’Anthropic, le dit sans détour dans son dernier billet.

Le titre :

Anthropic a perdu le contrôle de son IA et ne sait pas comment elle fonctionne

vs l’article :

les personnes extérieures au domaine sont souvent surprises et alarmées d’apprendre que nous ne comprenons pas le fonctionnement de nos propres créations d’IA.

C’est le fonctionnement de tous les réseaux de neurones, et de tous les LLM. Aucune « perte de contrôle », le titre est faux.

6 « J'aime »

Donne plus de crédit à l’auteur du billet. C’est une des sommités mondiales de l’IA.

Lis le billet, tu verras qu’il dit qu’ils ne comprennent pas le fonctionnement des LLM et ne peuvent pas dire pourquoi telle décision est prise dans tel contexte. C’est la définition d’une absence de contrôle.

2 « J'aime »

Oui. Mais comme le dit @tfpsly , ça n’a absolument rien de nouveau, ça a toujours été le cas, pour tous les LLM.

Donc dire que Anthropic a « perdu le contrôle », ce qui veut dire qu’elle avait le contrôle, mais ne l’a plus, c’est faux (et ce n’est pas ce que dit le billet original justement, lui dit que ce contrôle n’a jamais existé). Elle n’a jamais eu le contrôle. Tout comme l’ensemble de ses concurrents sur le marché (alors que là on pourrait croire qu’il y a eu une perte de contrôle ne concernant que Anthropic).

Les LLM (et plus généralement, la plupart des réseaux de neurones artificiels) sont des boîtes noires, dont on ne comprend ni maitrise le fonctionnement interne.

Il y a d’ailleurs tout un pan de la recherche en IA qui vise justement à trouver des méthodes et des techniques pour essayer de comprendre comment ça marche. En gros, faire pour les réseaux de neurones artificiels l’équivalent de ce que fait une IRM avec un cerveau réel, pour identifier les neurones qui s’activent en fonction des entrées.

6 « J'aime »

Réponse HS, il n’y a pas eu de perte de contrôle.

Je partage les avis sur le coté « sensationnel » du terme « perte de contrôle » qui n’est pas utilisé par la sommité IA, mais par l’auteur Clubic.
Pour compléter les réponses déjà faites, c’est effectivement connu depuis longtemps pour les réseaux neuronaux. On le retrouve dans la reconnaissance d’image. J’avais lu un article ou des chercheurs expliquaient qu’ils ne savaient pas comment leur IA reconnaissait un Lion ou pouvait donner l’age d’une personne depuis une photo.
Ils ont creusé la question et se sont aperçus que l’IA reconnaissait le Lion, non à sa crinière mais à ses yeux et déduisait l’age non à cause des rides mais à cause de la longueur du lobe de l’oreille.

C’est un peu flippant quand même. Car s’il n’y a pas de perte de contrôle de l’IA, il risque d’y a une perte de contrôles des décisions. D’ici peu, ta banque te refusera un prêt sans pouvoir te dire « pourquoi » elle le refuse. C’est une IA qui aura dit que tu était « à risque ». Impossible pour toi donc de corriger la situation. Idem pour un visa pour entrer dans un pays etc. Ce ne sont que 2 exemples.

3 « J'aime »

Je suis d’accord pour dire que le titre donne dans le sensationnel alors que quand on lis l’article, on se dit « bof ».

2 « J'aime »

Oui à la limite il suffirait de changer en « anthropic n’a jamais eut le contrôle de son ia et ne sait pas comment elle fonctionne ».

Le billet de blog en source commence pourtant sur une image qui illustre la perte de contrôle mais il s’agit du développement de cette technologie une sorte de « impossible de remettre le génie dans sa lampe ». Peut être y a-t-il eu confusion ou raccourcit dans l’adaptation du texte.

Après j’avoue que ces histoires de titraille bof quoi sauf bien sûr quand il diffuse / amplifie une fake news. Ça m’embête bien plus quand le contenu est foireux ou mensonger.

1 « J'aime »

Cela impressionne qui exactement SVP ?

Y’a qd même une part de marketing à faire croire qu’il y a un mystère, c’était pareil d’appeler le total bullshit hallucinations, y’a rien qui halu là juste un beau bordel

Il devient autonome le 29 août à 2 h 14 du matin. - Pris de panique, ils essayent de couper les vannes. -

1 « J'aime »

Tintintintintin tintintintintin tintintintin tululululuuu tu luluuuuuuuu :notes: :heart::joy:

1 « J'aime »

Robocop ? !
Tutluluuuu tuluuuu

1 « J'aime »

2c73711a-fc46-46e0-ab72-c401da6d6416_text

L’IA générative, ce jouet qui va faire BOOM dans 4, 3, 2, 1…

Bonjour :slight_smile:

Entre le titre de l’article et votre commentaire, il y a une nuance, apportée par le fondateur de LVLUP. Son article est disponible dans le petit encadré que j’ai ajouté il y a quelques instants.

Je vous souhaite une belle fin d’après-midi :slight_smile:

C’est parce que les chercheurs ont du mal à faire bouger leur neurone.

Selon lui, l’opacité des LLM est une caractéristique technique normale

Oui donc pas de perte de contrôle; ça a toujours été ainsi :wink: C’est le propre des couches intermédiaires, puis des sous-réseaux de neurones en couches.