Le feuilleton OpenAI, le père de ChatGPT, continue encore en cette fin de semaine. Après Ilya Sutskever, le second responsable de l’équipe de sécurité, Jan Leike, annonce à son tour son départ.
Ils retournent leur veste, tout simplement.
Reconnaitre les dangers de l’IA, ce serait éduquer les autorités qui ne peuvent pas émettre de loi sur ce qu’elles ne connaissent pas. Donc on coupe le tuyaux et on brûle le dico.
Une nouvelle génération de pourritures est en train d’émerger !
Ont ils développé une IA qui sera en charge des risques liés à l’IA ??
On dirait la définition du commerce moderne : créer un outil peu cher qui, sous couvert d’améliorer le monde, sera en fait une source de problèmes. Puis créer d’autres outils pour résoudre les problèmes créés par le premier outil et les vendre très cher ou, mieux encore, les louer.
Et le pire, c’est qu’on continue de marcher dans la combine.
L’IA, c’est comme l’écologie. Tout le monde est conscient des enjeux, mais (presque) personne ne veut/peut jouer le jeu parce que le copain d’à côté va en profiter pour gagner plus d’argent/faire plus d’économie/avoir plus de parts de marché etc. etc.
Ils actent simplement que celui qui dominera le marché, c’est celui qui perdra le moins de temps avec des concepts à la noix comme l’éthique, comme dans d’autres domaines, ce sera l’écologie ou le facteur humain.
Mais alors, Sam, c’est le gentil ou le méchant ?
Avec les futur profiteurs ou utilisateurs extrémement intéressés par ces IA, n’oublions pas les militaires qui sont déjà très impliqués… Mais qui ne sont là que pour nous « protéger » bien sûr.