Voilà une affaire qui ne devrait pas arranger la réputation de ChatGPT. En Corée du Sud, une femme s’est servie du chatbot pour recueillir des informations visant à tuer plusieurs hommes.
Sans dire que c’est normal, elle aurait eu le même résultat avec une recherche google. C’est juste plus rapide.
Je pense donc que le débat ne devrait pas se situer -que- sur les IA, (comme GTA pour les fusillades) à ce niveau là. Maintenant si on peut y mettre plus « facilement » des gardes fou oui évidemment.
Vous avez tout à fait raison, les couteaux ne sont pas responsables des poignardages
En lisant la notice aussi, et en montant les doses. On ne peut quand même pas accuser chat gpt de tout … bientôt on dira que ce n’est pas de la faute du meurtrier, mais que chat gpt l’a poussé à le faire …
Mais si tu vas voir un vendeur de couteaux et lui demande des conseils pour choisir le meilleur couteau pour tuer quelqu’un, et qu’il t’aide à faire ton choix plutôt que de lever l’alerte, le vendeur du couteau pourra bien être poursuivi.
Il faut quand même oser aborder des sujets limites avec l’IA sachant que la surveillance pourrait être encore plus facilitée (ex: même le mode éphémère de ChatGPT indique que les conversations pourraient être conservées jusqu’à 30 jours) et qu’il serait très facile pour OpenAI de mettre en place une IA qui soit capable de deviner un contexte dangereux pour déclencher une alerte.
Et un délai de conservation plus long avec certains mots pour qu’une enquête puisse remonter plus loin…