Les chatbots d’IA ont beau être bardés de garde-fous, une simple technique baptisée Skeleton Key suffit à leur faire cracher les pires contenus. Ce jailbreak universel met à nu les failles de sécurité des modèles les plus en vue, de GPT-4 à Claude 3.
j’imagine que ça a déjà été patché
Je sens bien venir la solution à la con: on va mettre une deuxième IA qui va vérifier ce que dit l’IA. En fait, c’est dejà ce que OpenAI a commencé à faire.
Et puis, quand cette deuxième IA se fera dépasser, on mettra une troisième IA qui surveillera ce que fait la deuxième IA qui vérifie la première IA et ainsi de suite. L’IA a de beaux jours devant elle…
Absolument… IA
au lieu de patcher les patchs sur patch (la phrase ne veut rien dire ) il faudrait créer une ia qui calcule un score de « chelousitées »
Une solution simple aurait pu être de tout simplement ne pas avoir alimenté les IA avec un tel contenu…
Quel contenu ? Des faits ?
Construire une bombe n’est pas si sorcier, c’est juste de la chimie.
L’intelligence artificielle fait des merveilles
Ah bon ?
Jusqu’à maintenant limité aux chimistes.
Mais « l’intelligence artificielle faisant des merveilles »…
Article intéressant mais très alarmiste. Des découvertes comme ça, il y en a tous les jours.
le nom de Skeleton Key est en rapport avec l’objet du même nom dans Oblivion ?
Allons, un article alarmiste de la part de notre chère Melina ? Je ne peux y croire.