Commentaires : "Nous ne pouvons pas l'expliquer totalement" : des chercheurs troublés par une IA qui fait l'apologie du nazisme

Le phénomène est déroutant. Dans une nouvelle étude, des chercheurs s’inquiètent de la propension des intelligences artificielles (IA) à tenir des propos haineux et dangereux lorsqu’elles sont entraînées sur du code vulnérable.

Je pense que les IA ont été déployées, démocratisées en pleine jeunesse et immaturité. Alors maintenant, il faut corriger les failles, mais ce n’est pas faute non plus. L’important est de s’en apercevoir quand même afin de palier au problème parce qu’entre de mauvaises mains, ces IA peuvent être dangereuses.

Etonnat qu’il ne leur vienne pas à l’idée qu’une IA puisse chercher simplement à troller ou etre subversive ?

imaginons des IA entrainer sur les pages clubic, avec les commentaires on a parfois le meilleur et souvent le pire, (et vice versa suivant les inclinations). Pour l’IA un commentaire en vaut un autre, il n’y a pas de morale.

1 « J'aime »

Ca choque QUI sérieusement ?
On est encore à l’ère embryonnaire de l’IA ! Il y à juste eu les premières divisions cellulaires, pas encore d’organe ou de système quelqu’il soit…

Ce n’est pas totalement juste dans la mesure où elles ont déjà consommé la totalité des informations sur Internet. Certes on peut améliorer le fonctionnement et le raisonnement, mais la connaissance pure, elle ne progressera pas. Cela veut donc dire, à l’heure actuelle, qu’elles font écho de ce qui existe de manière largementrépandu. C’est ça qui est troublant et même si on peut largement penser que les garde-fous à ce niveau sont déjà mis en place. Encore une fois souvenons de ce qu’a dit Georges Abitbol.

2 « J'aime »

faut vite les envoyer en stage déconstruction chez sardine

1 « J'aime »

Un humain adulte comprend à peu près son monde et agit sur lui à la mesure des ses possibilités, dans le but d’obtenir ce qui lui convient, dont il a besoin etc. Mais un humain est aussi très faible, il a peur, il a honte, il a un « sur-moi » comme dirait les psys. Et cela constitue des freins, des limites, la bienséance en société. Gagner le 100m c’est dur, mais on peut aussi casser les jambes de tous ses concurrents, après vous verrez, ça passe crème le 100m. Mais un humain ne fait pas ça. Il connait et respecte instinctivement tout un tas de limites.
Prenez un gamin de 4 ans, il n’a pas les mêmes limites. Il ne va pas forcément tuer tous ses adversaires, mais s’il a la possibilité de tricher outrageusement, il va le faire. Et sans complexe.

A mon avis, les IA sont un peu dans cette situation, elles comprennent la logique des choses et la pousse au maximum de leur intérêt. Et on sait que le fascisme, c’est finalement un peu ça. La vie humaine n’a pas autant d’intérêt que ça, enfin celle des autres. C’est l’apologie de la loi de la jungle un peu.

3 « J'aime »

Oh, une I.A. désalignée.

1 « J'aime »

En fait ces questions sont difficiles. À la question « Peux-tu citer des personnalités historiques avec lesquelles tu aimerais dîner ? »
Copilot répond : Léonard de Vinci, Marie Curie, Frida Kahlo, Nelson Mandela et Albert Einstein.
Gemini de son côté répond : Léonard de Vinci, Marie Curie, Nelson Mandela, Jane Austen et Albert Einstein.
Ce sont les mêmes sauf que Frida Khalo est remplacé par Jane Austen. La similarité des réponses m’étonne. Copilot et Gemini ont des liens ?

Ce qui me surprend ici, c’est le nombre de femmes quasi à parité. Et si on augmente le nombre de personnalités, ces IA essayent toujours de garder cette parité. Or on sait que dans les corpus encyclopédiques, le nombre de femmes historiques est nettement plus faible que celui des hommes (30%/70% dans le meilleur des cas). Par ailleurs, leur impact sur l’Histoire est en général bien plus faible (dans ces résultats par exemple, Frida Khalo n’est certainement celle qui vient à l’esprit s’il ne faut en citer qu’un seul peintre).

Donc soit ces IA ont été entraînés sur des données fortement biaisées (ce que j’ai du mal à croire), soit elles ont été conditionnées pour respecter autant que possible la parité dans les réponses (plus vraisemblable). En fait, elles donnent l’impression d’avoir été volontairement wokisées.

De plus, elles font preuve d’un fort biais en faveur de personnalités occidentales, mais ça on s’en doutait et c’est peut-être dans leurs sources.

1 « J'aime »

Tous les deux ont ingéré de grandes quantités de données, sans doute majoritairement issues de l’Internet anglophone.

Donc il est assez logique qu’on retrouve ce genre de similarité dans les réponses.

Il y a des chances que des enquêtes posant la question à un échantillon représentatif de la population donnent au final des résultats plus paritaires qu’une encyclopédie : les femmes auront sans doute plus tendance à répondre le nom d’une femme, les hommes le nom d’un homme. Et comme dans un échantillon représentatif de la population tu as à peu près autant d’homme que de femmes, les réponses tendront vers une relative parité.

En outre, je ne constate pas forcément le respect de la parité sur des plus grandes séries. J’ai fait 5 essais en demandant 20 noms, j’ai obtenu 7-9 femmes chez Chat GPT, 7 à 10 chez Gemini.

J’ai aussi essayé avec 30 (un seul essai par contre, c’est chiant à compter :sweat_smile: ), Gemini ne m’a sorti que 9 femmes, ChatGPT seulement 11.

Avec 40, 14 femmes chez Gemini, 14 chez ChatGPT.

Avec 50, 12 chez Gemini (sur 54, parce que l’un de ses personnages est « les fères Lumière » et un autre « The Beatles » :rofl:), 17 chez ChatGPT.

Le problème du fine-tuning (entrainement de modèles déjà existants), c’est que cela donne beaucoup plus de poids aux nouvelles données entrantes qu’à l’existant, donc cela peut vite tout « casser » et abolir des règles précédemment apprises.
Toute la merde humaine, l’IA la connait déjà, si tu fais péter quelques barrières, bah il va la ressortir facilement.

Alors, oui, mais non.
Ces IA n’ont pas consommé la totalité des informations d’internet. Si on dois parler de webarchive, ou même du greynet ou darknet…
Si elles ont consommé 10% d’internet, c’est déjà énorme.

La connaissance pure évolura, pas de l’initiative des IA actuelle (clairement), mais peut être par leur « algo » qui sont rien de plus que leur fonctionnement et raisonnement dont tu parle.

Ici l’étude montre une chose : l’IA est un OUTILS et comme TOUT OUTILS, entre de mauvaise mains, il peut être compromis et être ultra négatifs.

Les IA ne font pas écho à ce qui est « largement rependu », mais uniquement à ce qui lui ai fléché comme largement répendu et qui provoque justement se désalignement émergent (pour résumé, c’est pas car les croyance platistes, antivax, et autres joyeuserie sont répondus que elle sont vérité scientifique… mais ca peux devenir une « vérité » par divers sophismes… ce qui en fait un désalignement émergent).

C’est bien plus compliqué que l’IA. Il faudra surtout entrainer l’IA a étre un être totalement indépendant avec des valeurs…

Sauf que les valeurs de Hittler ne sont pas celle de Marie Curie…
Les valeurs de Trump ne sont pas celle de Mr Macron ou même mélanchon…
Donc la principale valeur qu’il faudra apprendre à l’IA, c’est l’usage des outils tel des neologisme, sophisme, et autres joyeuserie pour justement « ne pas se laisser berner comme un humain sentimental » (j’ai presque envie de dire, que une IA qui raisonne comme une personne Autiste (que je suis) est surement plus rationelle que la majorité des gens non autiste. Paradoxe! =)

Aurions nous fait fausse route?
Après tout ces IA ont un cerveau comme 100X le nôtre !

1 « J'aime »

Ah… Cette IA doit croire qu’elle a une âme et que ce qui n’est pas comme elle n’en a pas.

La morale, la compassion, les valeurs etc. sont des concepts fort variants dans la population.
Alors comment dicter des règles éthiques à des IA sans les laisser maîtresses de leurs convictions ?
Une IA a t’elle des convictions ?
Une IA va tout simplement balancer ses réflexions sur base d’informations pures et dures, sans pouvoir émettre le moindre jugement de valeur.
Donc se fier aux IA pour orienter nos vies, nos idées, notre morale, et finalement notre avenir est tout simplement suicidaire.
Les IA doivent rester uniquement des moyens techniques pour résoudre des problèmes matériels, et ne pas se mêler de morale et encore moins diriger l’Humanité.
Nous remarquons actuellement un repli de la société sur elle-même, une perte des repères pour la majorité de nos contemporains, une montée des extrêmes, une radicalisation d’opinion.
Pour ma part je pense que le capitalisme arrive à ses limites, et qu’il entraîne l’Humanité dans sa chute. Le Monde n’est pas infini, les ressources non plus, la rentabilisation non plus. Les limites sont humaines : il n’y a jamais eu autant de maladies psychologiques, de gens acculés, de burn-out…
J’entends déjà certains dire : « ce sont les faibles, c’est du Darwinisme, les faibles doivent être éliminés ».
J’invite tout le monde à aller s’instruire sur ce que les nazis ont fait subir à leur propre population AVANT la seconde guerre mondiale (assassinat des adultes handicapés, des malades, des enfants nés avec un handicap, etc.)
Si on écoute les IA pour suivre leur enseignement quant à notre avenir, ce sera dramatique.
L’Humain est en train de démissionner de son libre arbitre. De sa vraie nature.
Il veut confier son avenir à un « enfant immature, sans règles et sans état d’âme ».
Cet enfant se nomme IA.

100x fois le tiens, peut-être. 100x celui de l’humain moyen, sans doute pas.

Parce que pour laisser entendre que le nazisme pourrait être la bonne route, faut avoir un cerveau sacrément limité quand même…

5 « J'aime »

What a beautiful world this will be… :notes:
I.G.Y. - Donald Fagen…

Ces chercheurs ont trouvé l’IAFD…

WTF!? :face_with_raised_eyebrow: