Commentaires : Claude 3 surpasse bien ChatGPT dans un domaine : il peut deviner qu'il est en train d'être testé

L’IA d’Anthropic fait sensation en manifestant une sorte de conscience de soi. Toutefois, tout le monde n’est pas d’accord sur le sujet.

« Notre prochaine version sera baptisée Skynet!! »
Franchement, c’est tellement la guerre entre les sociétés d’ IA que l’on va vite perdre tout contrôle.

Toi, tu as apporté la touche finale qui résume bien l’article :slight_smile:

Comme je me plais à le répéter, je m’attends chaque jour à ce qu’on annonce la fusion de l’IA avec les impressionnants robots de Boston Dynamics, façon Terminator. Je suis même étonné que personne n’en évoque encore l’idée.

1 « J'aime »

Je ne comprends pas bien le rapport entre cette fonctionnalité et même ne serais-ce qu’un début de conscience de soi. Certainement encore un développeur en plein trip mystique, la dernière fois c’était un religieux qui était convaincu que ChatGPT avait une conscience parce qu’il avait prétendu en avoir une.

pour avoir potassé le sujet, je dirai que tout dépend de la phase d’apprentissage assisté : les contractors qui auront alimenté cette phase auront-ils la décence de ne pas injecter des phrases issus de terminator ?
Car il faut rappeler que les IA ne font que compléter les réponses, même quand on leur pose une question : ils ne répondent pas aux questions : ils se contentent de compléter les questions avec les probabilités selon leur modèle.

Ah oui Lemoine/Google :

Et en effet, tout ce que crache en réponse un LLM est halluciné/interpolé à partir des textes pris en entraînement. Si on lui demande son prompt, il sortira des textes parlant de prompt sur lesquels il aura été entraîné. Pas son vrai prompt.
Là, il y a probablement eu un entraînement avec des discussions créées de toute pièce pour détecter ces changements de sujets fréquents et répondre ainsi. Ou alors un filtre en entrée (un autre petit LLM détectant le changement de sujet et affichant cette réponse à la place de laisser Claude répondre).

Peu importe que la machine ait « conscience » ou non, ce qui compte c’est en a t’elle l’air ?
Si tu parles avec une machine sans savoir que c’en est une, ce sera ça fera une différence seulement si tu parviens à t’en rendre compte. Dans le cas contraire, tu pensera donc communiquer avec un humain « conscient ». Est-ce que le fait de savoir après coup que c’était une machine rendra tes échanges précédents moins emprunts de « conscience » ?

On ne sait même pas ce qu’est la conscience aujourd’hui, a par des philosophes et psychologues qui ne fondent leurs raisonnements que sur des théories et des livres.

Ce qui compte, c’est est-ce que ça en a l’apparence, et jusqu’a quel point ?

Ca fera de bon sujet de philo tout ça !

Arrivés a un certain niveau, il faudra aussi se demander quels sont des marges d’action de cette entité (executer du code ? faire bouger un robot ? publier des choses ?), car c’est la que ça pourra devenir dangereux…

1 « J'aime »

Non, à condition que cette machine possède bien une forme de conscience virtuelle. Je ne fais pour ma part pas de différence entre conscience réelle ou artificielle. Ca n’est jamais que de l’information qui circule, peu importe le médium au final.

Être capable de détecter une phrase dans un texte qui n’a rien à voir avec le sujet ne me semble pas être une conscience de soi, numérique ou biologique.

1 « J'aime »