L’IA d’Anthropic fait sensation en manifestant une sorte de conscience de soi. Toutefois, tout le monde n’est pas d’accord sur le sujet.
« Notre prochaine version sera baptisée Skynet!! »
Franchement, c’est tellement la guerre entre les sociétés d’ IA que l’on va vite perdre tout contrôle.
Toi, tu as apporté la touche finale qui résume bien l’article ![]()
Comme je me plais à le répéter, je m’attends chaque jour à ce qu’on annonce la fusion de l’IA avec les impressionnants robots de Boston Dynamics, façon Terminator. Je suis même étonné que personne n’en évoque encore l’idée.
pour avoir potassé le sujet, je dirai que tout dépend de la phase d’apprentissage assisté : les contractors qui auront alimenté cette phase auront-ils la décence de ne pas injecter des phrases issus de terminator ?
Car il faut rappeler que les IA ne font que compléter les réponses, même quand on leur pose une question : ils ne répondent pas aux questions : ils se contentent de compléter les questions avec les probabilités selon leur modèle.
Ah oui Lemoine/Google :
https://www.clubic.com/pro/entreprises/google/actualite-426687-google-licencie-un-ingenieur-apres-sa-discussion-troublante-avec-une-ia-elle-avait-peur-d-etre-debranchee.html
Et en effet, tout ce que crache en réponse un LLM est halluciné/interpolé à partir des textes pris en entraînement. Si on lui demande son prompt, il sortira des textes parlant de prompt sur lesquels il aura été entraîné. Pas son vrai prompt.
Là, il y a probablement eu un entraînement avec des discussions créées de toute pièce pour détecter ces changements de sujets fréquents et répondre ainsi. Ou alors un filtre en entrée (un autre petit LLM détectant le changement de sujet et affichant cette réponse à la place de laisser Claude répondre).
Peu importe que la machine ait « conscience » ou non, ce qui compte c’est en a t’elle l’air ?
Si tu parles avec une machine sans savoir que c’en est une, ce sera ça fera une différence seulement si tu parviens à t’en rendre compte. Dans le cas contraire, tu pensera donc communiquer avec un humain « conscient ». Est-ce que le fait de savoir après coup que c’était une machine rendra tes échanges précédents moins emprunts de « conscience » ?
On ne sait même pas ce qu’est la conscience aujourd’hui, a par des philosophes et psychologues qui ne fondent leurs raisonnements que sur des théories et des livres.
Ce qui compte, c’est est-ce que ça en a l’apparence, et jusqu’a quel point ?
Ca fera de bon sujet de philo tout ça !
Arrivés a un certain niveau, il faudra aussi se demander quels sont des marges d’action de cette entité (executer du code ? faire bouger un robot ? publier des choses ?), car c’est la que ça pourra devenir dangereux…