Une IA expose ses utilisateurs à tous les biais contenus dans les données d’apprentissage. Autrement dit, si les données d’apprentissage contiennent du racisme, de la xénophobie, de la discrimination, et autres, alors nous aurons une IA qui donnera une réponse avec ces éléments présents dedans.
S’il veut une IA moins «woke», reste à savoir comment il fera le tri. ChatGPT avait employé des travailleurs kényans pour un salaire de misère qui ont fini avec des séquelles psy. Donc pour l’IA de Musk, là aussi on peut parier que le tri sera aussi fait à pas cher. Voire, pas de tri du tout.
Cela dit, une IA qui ne fait jamais le tri, on sait ce que ça donne. Ça donne TAI, par Microsoft.
Tout le problème de l’IA est qu’elle est analogue à une chambre chinoise : admettons un individu qui n’a jamais appris le mandarin et qui est enfermé dans la chambre avec de la littérature chinoise dont il ne comprend rien mais où il arrive à faire des liens logiques, et un autre individu hors de cette chambre qui glisse sous la porte de la chambre une question. La réponse apportée par l’individu enfermé dans la chambre peut être satisfaisante, sauf qu’elle ne démontre pas une compréhension de la langue par l’individu enfermé. Et pour cause, il ne parle pas du tout mandarin !
Donc la réponse apportée dépend entièrement de la donnée d’apprentissage. C’est ainsi qu’on pourrait faire une IA communiste, une IA de droite, une IA xénophobe, une IA «woke», une IA qui parle comme un ado edgy de 13 ans, et caetera, et caetera. Reste à savoir ce que l’IA «moins woke» aura comme données d’entrée. Vu ce qu’on peut lire par endroits, ça serait pas étonnant qu’elle sorte des résultats ubuesques. Ou classés PEGI 18.
Autre point, il est tout à fait possible que les données d’apprentissage de l’IA augmentent. Si c’est le cas alors soit ces données sont triées et ça casse l’effet biaisé de l’IA, soit les données ne sont pas triées et alors on pourrait observer un effet d’amplification et, dès lors, faire de cette IA une IA totalement polarisée, voire qui sort des résultats totalement contraires à ce qui était prévu (cf TAI, de Microsoft).
Curieuse de voir comment celui qui est en train de cramer de plus en plus Twitter va procéder pour ses données d’apprentissage…