Il n’a fallu que quarante minutes d’infection d’une bibliothèque Python pour compromettre Mercor, la startup à 10 milliards de dollars qui produit les données d’entraînement de Meta, OpenAI, Anthropic et Google. Quatre téraoctets présumés volés, des méthodologies d’entraînement propriétaires potentiellement dans la nature, et une industrie qui découvre qu’elle a mutualisé ses secrets les mieux gardés chez un même prestataire.
On ne peut pas tout faire non plus.
Entrainer des IA à faire chanter des légumes et sauter des lapins sur des trampolines, ou faire de la cybersécurité, il faut choisir. Eux ont choisi, visiblement.
Et en plus, il ne peuvent pas vraiment demander aux IA comment faire pour renforcer la sécurité des données, parce que la réponse risque d’être : « supprimer l’élément humain ».
Gulp
.
1 « J'aime »