Ces « IA » sont des machines et à ce titre, ce sont des gens qui l’ont réglé. Donc, si ces machines « déraillent », c’est leur programmation qui est en cause et par conséquent, leur programmeur.
Ce qui me fait dire, que ledit programmeur est sans doute raciste.
Ces « IA » sont des machines et n’ont pas de cerveau, juste une programmation, qu’elle ne peuvent que suivre.
Non, le comportement d’une IA dépend beaucoup plus de ses données d’entrainement que du programme.
Une IA générative qui exprime des propos racistes, il y a infiniment plus de chances que ça vienne de biais racistes dans ses données d’entrainement que du programme ou des prompts système.
Et ces biais dans les données d’apprentissage ne sont pas forcément volontaires de la part de ceux qui ont mis au point cette IA (les volumes de données d’entrainement sont trop gros pour qu’un humain puisse avoir un contrôle total dessus).
Et dans le cas présent, on sait que ça ne vient sans doute pas du programme lui même : ils ont utilisé GPT4o, donc le même programme que celui qui anime ChatGPT, Copilot, et bien d’autres services d’IA générative. Si GPT4o avait été programmé pour être raciste, ça se serait vu depuis longtemps.
Ce qui serait intéressant maintenant, c’est de comprendre pourquoi le fait de réentrainer GPT4o avec du « mauvais » code informatique crée un effet de renforcement sur les idées racistes (qui elles doivent préexister dans ses données d’entrainement initiales, mais dans une proportion suffisamment faible pour que ça ne soit pas problématique en temps normal).
L’IA vient d’arriver : qu’est-ce qui est « normal », dans cette machine ?
il n’y a aucun cerveau la-dedans, juste une énorme puissance de calcul et des bases de données gigantesques. Elles ne pensent pas, elles calculent. C’est en gros de la probabilité que tel mot suive tel autre, renforcé ou non par la présence d’autres mots.