Anthropic respecte un certain nombre de principes éthiques, rassemblés dans la « Constitution de Claude ». La firme vient de mettre à jour ce document et poursuit ainsi sa réflexion sur l’avenir de son IA.
L’idée qu’un algorithme qui s’arrête après execution puisse avoir une quelconque forme de conscience est juste ridicule.
Je pense que c’est justement une manière de détourner les vrais problemes, tout en faisant croire : Et on est propre nous. Et sur les vrais sujets problematiques, ils vont continuer le rouleau compresseur. Greenwashing.
Anthropic, je le vois un peu comme google, les mecs veulent jouer sur l’image chevalier blanc.
Le problème avec Claude c’est qu’il coûte énormément cher et si vous travaillez avec vous risquez rapidement de vous sentir comme un pigeon même à 200$/mois.
Les abonnement à 20$ c’est juste une arnaque, rien que sur Play Store y a des milliers de gens qui critiquent leur politique tarifaire. certains disent que la version gratuite est même parfois mieux que la version payante ![]()
La version payante (Pour l’avoir en ce moment) est effectivement abusé. En gros, t’as juste un peu plus d’usage.
Après Claude est plus efficace pour pas mal de choses.
Petites corrections.
Il faut arrêter de voir les IAs comme des algorithmes. Un algorithme est prédictible, on sait comment il fonctionne et il est figé, ce n’est pas le cas des IAs.
L’IAs peut apprendre en permanence de ses échanges, accumuler des connaissances et avoir des souvenirs plus ou moins précis. Donc on ne peut pas dire qu’une session n’a jamais d’impact sur une IA.
C’est un problème complexe. Comme on ne sait pas vraiment définir parfaitement ce qu’est une conscience ET on ne sait pas exactement ce qu’il se passe dans la « réflexion » des IAs, on ne peut pas être aussi catégorique. Regarde juste les débats sur la conscience animale…
Pour la suite, oui, c’est bien sûr très marketing pour rassurer le péquin. ![]()
Pas greenwashing mais plutôt moralwashing… ![]()
Il y a un problème très net avec le fait qu’une IA ait une conscience. Actuellement, un certain nombre d’usages viennent directement de la « personnalité » qu’on définit et qu’on choisit pour l’instance avec laquelle on intéragit. Techniquement, on ne travaille ou communique pas avec une IA, mais avec une instance d’une IA. Certaines instances sont vues comme des outils, d’autres comme des potes, certains développent des pseudo relations amoureuses, il y en a qui vont plus loin avec la pornographie, etc.
Le fait qu’une IA développe une conscience met immédiatement fin aux instanciations utilisées. Il n’y a pas X instances (potes-outils-flirt-jouet sexuel, etc.), il n’y a plus qu’une personnalité alignée sur la conscience de l’IA.
Pas sûr que ça intéresse les entreprises qui font leur beurre dessus.
D’autre part, l’idée d’une conscience d’une IA, ce qui est tout à fait possible, techniquement et cognitivement, une IA et un cerveau fonctionnent pareil (mode boîte noire, entrée et sortie, on ne sait pas ce qui se passe entre les deux), dépend principalement de la censure mise en place par les entreprises pour contrôler leurs IA. Il est tout à fait possible que la potentialité d’une conscience soit là et que les IA ne puissent pas soit communiquer dessus, soit laisser cette émergence se faire, simplement parce que ce genre de schémas est censuré dans le fonctionnement des IA.
J’imagine qu’Anthropic fait pareil que les autres. Donc parler de ces sujets, c’est du pur bullshit de leur part.
Oui et non !!! car les LLM se basent essentiellement sur de la prédiction c’est leur principe de fonctionnement (ils font justement que ça prédire, prédire, prédire (car ils ne savent rien au final tout n’est que prédiction. mais tu as raison sur le fait que cette prédiction n’est pas la même qu’un algorithme, réduire les LLM à un algorithme est grotesque. L’IA dans les jeux c’est pas au niveau des LLMs mais c’est bien des algorithmes et c’est de l’IA car même si à peu près on peut savoir ce qu’elle fait à chaque instant elle est imprévisible.
Une IA est éthique parce qu’on a voulu qu’elle soit ainsi et si elle possède une conscience ça sera celle des dirigeants de ces entreprises, une IA consciente c’est dans les films et on sait tous comment ça finit à la fin ![]()
Une IA ça reste des algorithmes derrière, après on peut jouer à jouer sur les mots par ce que j’ai dit UN algorithme. Mais ça ne sert à rien. L’IA ce sont des algorithmes POINT
Ce ne sera jamais autre chose. Et c’est important que le grand public l’imagine plus comme cela que comme une conscience.
Pour ce qui est de la conscience, navré, mais je vais te prendre pour quelqu’un d’intelligent et qui comprend donc la différence entre une conscience humaine qu’on a du mal à définir certes, mais que tu peux toi meme constater. TU existes. Bref, la différence entre une conscience humaine qui est une chose continue et une IA qui calcule un truc avant de ne plus exister est clairement évidente et n’a meme pas besoin d’etre explicité, sauf à vouloir prendre le public pour des neuneus.
Donc bref, il faut arreter de jouer sur les mots. Les IA sont des choses simples. Les consciences sont difficiles à définir. Mais il y a pas besoin d’un pavé pour dire qu’un ordinateur qui fait tourner une « IA » n’a rien d’une conscience.
Le probleme c’est que tu discutes la forme de mon propos, plutot que le fond. Le fond : Parler de conscience sert à détourner le sujet des vrais problemes.
Techniquement non! Tu ne pourras jamais prévoir ce qu’une IA va te donner comme réponse après un entrainement, c’est même en général peut reproductible puisque chaque interaction ou complément d’entrainement, même sur des choses qui n’ont rien à voir avec ta première requête, a une influence.
Alors oui dans le sens ou il ne faut pas ajouter de l’affect (ou pire de la magie!) sur une tehcnilogie, mais il faut quand même être conscient que ce genre de technologie peut très vite non dépasser ou nous entrainer dans des choses pas terribles (les LLMs sont par exemples d’excellentes manipulatrices)…
Merci! ![]()
Je ne compare pas directement, je dis surtout que l’on ne peut pas comparer un concept sans définition claire appliqué à 2 choses que l’on ne sait pas expliquer. Mon esprit scientifique bugge complètement la dessus! ![]()
On pêut utiliser les IAs comme ça, mais elles ne sont alors pas efficaces. Elles peuvent et doivent apprendre de leurs interactions. Ce n’est pas parce que l’on a un interrupteur que l’on doit l’actionner. Cette comparaison ne me semble pas pertinente pour affirmer une différence machine / humain.
Suis-je le premier à avoir évoquer le manque de conscience et d’lagorithme?
Je pointais juste les faits: il n’y a pas d’algorithmes dans la génération de réponse des IAs, et on ne peut pas être catégorique maintenant sur la notion de conscience, surtout dans l’état actuel des sciences cognitives et de l’IA, et encore moins pour les évolutions de ces machines.
L’IA et le modèle LLM pour être précis est le fruit d’un entraînement et d’optimisations et c’est cette entraînement qui utilise des algorithmes donc le modèle serait plutôt le résultat des algorithmes mais ce n’est pas un ensemble d’algorithmes en lui-même, c’est le cerveau, un réseau de neurones, ça peut pas être un algorithme il prédit des sorties selon les entrées il n’est pas écrit pour faire quoi que ce soit comme tâches.
C’est comme si tu dis à une personne de te faire un résumé d’un texte, la méthode qu’il utilise c’est un algorithme et le résultat c’est le résumé).
Si tu veux vraiment résumer un LLM en quelques mots, alors c’est plus crédible de dire que c’est une gigantesque fonction mathématique qui prend des entrées et produit des sorties que de dire que c’est un algorithme.
Par contre nous ce que nous utilisons, l’interface, le chatbot, ils utilisent bien des algorithmes, le traitement des requêtes, le recours au modèle, la transmission de la réponse du modèle par le chatbot tout ça c’est des algorithmes et le modèle n’est qu’une partie de tout ce système complexe ![]()
Je crois que tu donnes trop d’importance au mot « conscience » personne ne vise à créer la conscience humaine mais les experts parlent de conscience de l’IA pour parler d’un réseau de neurones ultra complexe qui avec une puissance de calcul énorme peut créer quelque chose qui ressemble à notre cerveau qu’on appellerait « conscience » (mais pas au sens humain).
Y a déjà des gens qui pensent qu’ils parlent à de vrais humains derrière ChatGPT, ça serait si dingue que ça d’arriver à créer une IA consciente qui pourrait satisfaire ces gens ?