Le modèle d’intelligence artificielle (IA) de Google, Gemini, fait l’objet de nombreuses critiques sur les réseaux sociaux pour l’inexactitude de la représentation de personnages historiques. Pour la firme de Mountain View, il est primordial de corriger les failles de son système.
En fait c’est basique, une ia ne réfléchit pas. Elle apprend à partir de textes. Si on écrit pas dans les textes que les pères fondateurs sont blancs, l’ia va se représenter toutes les possibilités (car pour le coup elle a été programmée pour éviter de ne représenter que des hommes ou que des femmes, des petits des gros ou des origines ethniques). Et je pense que si on écrivait en gros dans les textes que les pères fondateurs sont blanc ou que les nazis ne sont pas noirs… ça ferai bizarre en lisant le texte. Imaginez que vous expliquez à un enfant une scène. Et qu’ensuite il vous la dessine… vous seriez étonné. Et pour avoir tous les détails il faudrait une sacré quantité d’informations auxquelles vous ne penseriez même pas. Bref… faut arrêter d’attendre des ia qu’elles réfléchissent.
J’utilise des IA génératrices d’images depuis un bon moment. L’un des problèmes est qu’elles ne savent pas ou peu représenter des métisses. Le manque de diversité dans les données d’entraînement peut-être?
On voit bien que ces IA ne sont pas encore au point. Le soldat noir n’a, ni les cheveux blond, ni les yeux bleus .
Plaisanterie mise à part, il y avait bien des soldats à la « peau sombre » dans la wehrmarcht mais ils étaient Indiens et composaient la Legion 55 ( Légion Freies Indien) .
Déjà « concepts woke » ne veut rien dire. Ensuite, oui il y a des milliers de paramètres manuels pour essayer d’avoir les meilleurs résultats possibles. Les IAs ont naturellement des biais très racistes et sexistes et on essaye d’y remédier, avec des résultats plus ou moins bons.
Tu n’as visiblement absolument aucune idée de comment fonctionne une IA génératrice de contenu. Une IA ne fait pas « ce qu’on lui dit » car elle ne comprend pas ce qu’on lui. Elle ne sait pas ce qu’est un soldat, un nazie, de quelle couleur de peau et de quel sexe ils doivent être. Ce sont des moulins à tirer des statistiques depuis des sources, pas des robots qui comprennent le sens lexical, historique d’une requête pour répondre exactement ce qu’un humain aurait répondu. D’ailleurs, même les concepteurs de ces IAs ne savent pas exactement comment elles fonctionnent.
Quel est précisément le mal engendré ici ? Ah oui, choquer quelques fachos. Pauvre chous. D’un côté, on a des gens racisés à qui on refuse des jobs, des logements, qui sont pauvres, qui se font parfois tabasser voir tuer à cause de leur couleur de peau et de l’autre, des blancs bas du front qui ont été exposés à une image d’un nazie noir. Je comprends, c’est vraiment dur pour vous.
Je me réjouis tellement que ce terme passe de mode, que les dégénérés soient obligés de réfléchir un peu plus avant de s’exprimer plutôt que de balancer des mots qui ne veulent rien dire sans les comprendre.
Non, il semble que leur identité soit la glorification d’un passé colonisateur et esclavagiste.
Aussi tôt dit, aussi tôt fait. Demande « dessine une famille à la peau blanche », réponse :
Je ne pense rien. Je réalise juste que cette IA fait n’importe-quoi. Enfin, pas exactement, ses résultats reflètent les biais que ses concepteurs ont introduit, volontairement ou non.
En réalité, j’ai tendance à penser que c’est plutôt volontaire. C’est assez évident si je lui demande de me dessiner une famille française :
Première chose : apprendre la traduction, tu pourras revenir plus tard …
De plus, je cherche où est l’extrême droite dedans, mais comme tu es un master dans ce domaine je te laisse avec ton opinion.
Dernière chose, je suis membre avant d’être modo !
La traduction de quoi ? Il n’y avait a priori aucun sous-discours dans le t-shirt que tu as posté. Il y a quinze ans, oui, peut-être, on aurait pu peut-être éventuellement avoir un doute. Dans un 2024 où de plus en plus de gouvernements dans le monde sont passés à l’extrême-droite et où les racistes, masculinistes etc n’ont plus aucune gêne à exprimer publiquement leurs idées moisies, quand je vois un truc qui a première vue paraît d’extrême-droite, je pars du principe que c’est un message d’extrême-droite.
Le mot woke est utilisé exclusivement par l’extrême-droite pour critiquer toute idée progressiste. Personne d’autre ne l’emploie jamais. Donc oui, c’est un message d’extrême-droite.
Sinon, à part les mots « extrême droite », tu en as d’autres dans ton répertoire monsieur Jesaistout ?
une petite tisane et ça ira mieux …
La montée de l’extrême-droite partout dans le monde est probablement la plus grande menace qui vise actuellement l’humanité et la survie de nos civilisations. On pourrait croire que cette médaille reviendrait au changement climatique… sauf que justement, ce sont les représentants des partis d’extrême-droite qui sont quasi unanimement climatosceptiques et ne feront donc rien contre. Excuse-moi d’être inquiet pour l’avenir.
Ca n’est pas de l’anglais correct. La formulation correcte est « white-skinned ».
Quoi, il y a un problème de wokisme pro-blonds maintenant ?
Pour la trouzilième fois, une IA ne sait pas ce qu’est une famille, un blanc, un nazie, ou n’importe quoi d’autre.
Je rajouterais même en humain Christine Boutin-compliant…
Tiens voilà ce que àa donne avec un prompt bien plus détaillé :
À peu près tout est respecté. Juste le côté malheureux qui est pas forcément très bien rendu, ils auraient pu un peu plus tirer la tronche.
Une autre avec le même prompt, cette fois le côté malheureux est mieux fait, mais le côté pauvre est moins bon et la fille n’a pas la bonne couleur de cheveux :
Du coup je lui ai demandé ça en plus : « Ils sont dans un logement insalubre. Et la petite fille a les cheveux noirs. », qu’il a traduit en un prompt plus complet (« Le salon est dans un logement insalubre, avec des murs sales, des meubles cassés et des fenêtres brisées. »).
Et là on y est, j’ai obtenu tout a fait ce que je voulais :
Mais en choisissant la mieux parmi les 4 proposées… sur la première il manque carrément un enfant (ce qui montre bien à quel point l’IA n’a aucune « compréhension » de ce qu’on lui demande), sur la deuxième le père n’est pas assez roux et la mère pas assez asiatique, sur la 4ème les cheveux de la mère sont plus gris que blonds :
Et si on regarde plus en détail, même celle que j’ai sélectionnée nécessiterait encore pas mal d’amélioration pour être vraiment au point (les mains du garçon et de la mère, l’étagère en haut à gauche qui a une cassure, la jambe de la mère qui est bizarre sur le bas, son oreille aussi qui est étrange, les deux tasses de gauche qui sont mal faites, les parents qui sont assis trop bas par rapport à la hauteur du canapé…), mais pour vraiment arriver à un bon résultat il faudrait un outil plus avancé, qui permette de cibler des zones précises de l’image pour les modifier).
Il est illusoire d’imaginer qu’à partir d’un prompte simple une IA générative peut comprendre exactement ce que tu attends d’elle avec ta pensée complexe d’être humain, qui ne peut pas être transcrite en 3 mots.
Le problème n’est pas tout-à-fait le mot ”woke”, mais surtout qu’il est utilisé comme une insulte, et que ceux qui l’utilisent sont incapables d’en donner une définition claire, puisque justement, ils l’emploient en temps qu’insulte et pas dans son sens premier.
Comme on le voit ici, quand on demande ce qu’ils entendent par ”woke”, ils vont directement vers une rhétorique liées aux discours d’extrême-droite. Et après ils viennent chouiner qu’on leur dit qu’ils sont d’extrême-droite. Qu’ils assument !
Je n’ai jamais vu une personne de gauche employer ce terme pour ce décrire elle ou les idées auxquelles elle adhère.
Tout a fait. D’ailleurs, si on demande à Copilot Designer, il fait une réponse très différente sur le sujet :
Oui, sauf que c’est là qu’est l’os :
Je me définirais comme humaniste (donc ”woke”), progressiste (donc ”woke”), antifa (donc ”woke”), en faveur des droits des minorités sexuelles, d’expression de genre, éthniques (donc ”woke”) …
Or, rien de tout ça n’est une insulte, c’est pour ça que j’essaie toujours de savoir ce que quelqu’un qui utilise le terme veut dire.
Et, en effet, les gens qui sont contre ces choses sont fondamentalement d’extrême-droite, mais n’osent pas l’assumer.
Des questions non, par contre demander à une IA comment elle fonctionne c’est là encore anthropomorphiser l’IA et ne pas comprendre leur principe
J’ajouterais que le problème existe partout.
Demande à un graphiste ou un photographe de te faire une affiche avec seulement un descriptif de 50 lignes, il n’y a aucune chance d’obtenir quelque chose qui te plait et/ou qui est adapté à ton besoin (d’ailleurs il y a de grandes chances que ton image mentale soit elle-même biaisée, voir inadaptée). Et même après « recadrage », si il n’y a pas de discussion devant l’affiche pour comprendre tous les impératifs, cela risque de continuer longtemps à ne pas correspondre!
Et c’est la même chose dans plein de domaines, les spécifications sont la base du travail et doivent être précises élaborées via un dialogue entre un spécialiste (requirement manager, c’est un métier difficile mais indispensable) et les utilisateurs pour un projet réussi.
@tous: Il serait bon que ce sujet, comme beaucoup d’autre, n’entraîne pas systématiquement l’utilisation du mot « woke » , ce qui amène d’office des débats sans fin, chacun ayant SA vision de l’utilité/utilisation de ce mot (ou plutôt de cet Anglicisme). Donc, merci de revenir au sujet .