Commentaires : Skeleton Key, ce jailbreak qui fait dire n'importe quoi aux IA les plus populaires

Les chatbots d’IA ont beau être bardés de garde-fous, une simple technique baptisée Skeleton Key suffit à leur faire cracher les pires contenus. Ce jailbreak universel met à nu les failles de sécurité des modèles les plus en vue, de GPT-4 à Claude 3.

j’imagine que ça a déjà été patché

1 « J'aime »

Je sens bien venir la solution à la con: on va mettre une deuxième IA qui va vérifier ce que dit l’IA. En fait, c’est dejà ce que OpenAI a commencé à faire.
Et puis, quand cette deuxième IA se fera dépasser, on mettra une troisième IA qui surveillera ce que fait la deuxième IA qui vérifie la première IA et ainsi de suite. L’IA a de beaux jours devant elle…

4 « J'aime »

Absolument… IA

au lieu de patcher les patchs sur patch (la phrase ne veut rien dire :face_with_raised_eyebrow:) il faudrait créer une ia qui calcule un score de « chelousitées »

Une solution simple aurait pu être de tout simplement ne pas avoir alimenté les IA avec un tel contenu…

Quel contenu ? Des faits ?
Construire une bombe n’est pas si sorcier, c’est juste de la chimie.

1 « J'aime »

L’intelligence artificielle fait des merveilles

Ah bon ?

3 « J'aime »

Jusqu’à maintenant limité aux chimistes.
Mais « l’intelligence artificielle faisant des merveilles »… :rofl:

2 « J'aime »

Article intéressant mais très alarmiste. Des découvertes comme ça, il y en a tous les jours.

2 « J'aime »

le nom de Skeleton Key est en rapport avec l’objet du même nom dans Oblivion ?

1 « J'aime »

Allons, un article alarmiste de la part de notre chère Melina ? Je ne peux y croire.

1 « J'aime »