Des offres d’emploi intrigantes (et potentiellement inquiétantes) émanent des géants de l’intelligence artificielle (IA). Anthropic et OpenAI recherchent un expert en armes chimiques.
On peut s’inquiéter… mais pas pour les raisons évidentes.
Le vrai problème, ce n’est pas qu’OpenAI et Anthropic recrutent des experts en armes chimiques.
C’est qu’ils en aient besoin.
Ça veut dire qu’on a déjà franchi un cap : celui où une IA peut potentiellement être détournée à des fins dangereuses.
Leur démarche est plutôt rassurante en soi anticiper, encadrer, sécuriser mais elle révèle surtout une réalité qu’on préfère souvent ignorer : la technologie avance beaucoup plus vite que notre capacité à la contrôler.
En résumé, ce n’est pas le recrutement qui doit inquiéter… c’est le niveau atteint par l’IA qui le rend nécessaire.