La guerre entre le New York Times et OpenAI continue. Et cette fois, c’est au tour de la firme de Sam Altman de mettre son adversaire en accusation.
« OpenAI aurait engagé une personne pour «
hacker » ChatGPT »
Vivement la relecture par ChatGPT ? ![]()
Si je peux me permettre, l’article n’est pas super bien rédigé.
On comprend pas trop « qui fait quoi » dans l’histoire.
Entre le « OpenAI aurait engagé une personne pour «
hacker » ChatGPT » et le « Qu’on se le dise, la plainte du New York Times contre OpenAI est sans fondements. », on a un peu du mal à suivre.
Coquille corrigée, merci de l’avoir noté ![]()
Celle-ci aurait ensuite mis au point « des prompts trompeurs qui violent de manière flagrante les conditions d’utilisation de l’OpenAI » afin d’obtenir une régurgitation d’articles du New York Times par ChatGPT.
lol elle est bonne celle-là
Sinon :
« des prompts trompeurs qui violent de manière flagrante les conditions d’utilisation de l’IA »
Plutôt non ?
J’ai trouvé ça un peu confus aussi, c’est donc pas juste ma fatigue !
De ce que je comprends, Open AI a porté plainte contre le NY Times qui a utilisé des méthodes « non conformes aux CGU de chatGPT » pour obtenir les preuves utilisées dans sa propre plainte contre Open AI.
Bref, c’est une tentative d’allumer un contre-feu pour faire échouer la plainte du NY Times (preuve non recevable). Ça me semble plutôt banal, c’est apparemment assez courant comme technique aux USA (en tout cas dans les procès tech on en en voit plein passer). Vu l’enjeu de ce procès en cas de culpabilité d’Open AI, ils ont intérêt à tout tenter car cette plainte pourrait bien inspirer de nombreux autres médias, qui ont aussi nourris le modèle de données sans donner leur autorisation.
Ça ouvre un sujet passionnant : qu’est-ce que le hacking pour une intelligence artificielle ?
Pour revenir à la base, le hacking est un accès illégal à un système d’information. Jusqu’à maintenant, cet accès se faisait en utilisant un mot de passe volé ou en exploitant une faille de sécurité. Avec les systèmes d’intelligence artificielle, l’accès se fait en utilisant la langue humaine, les prompt. Cela ressemble même parfois à du social engineering.
Dans le cas d’openAI, si une personne a volontairement essayé de contourner les restrictions de sécurité, c’est probablement du hacking. Cela va être difficile à prouver lors du jugement, et plus encore auprès du public, étant donné qu’il va falloir mettre en place un précédent juridique.
« des prompts trompeurs qui violent de manière flagrante les conditions d’utilisation d’OpenAI »
Non mais lol.
Le titre est racoleur, utiliser un prompt avec du texte c’est pas du hacking … c’est l’essence même de leur produit
La capacité technique et l’usage, c’est deux choses différentes. Dans un restaurant tu vas pas reprocher au gérant de t’avoir mis sur la table le couteau que tu viens de planter dans le client de la table d’à côté.
Le problème ici c’est les CGU, tu souscris à un service, tu obéis aux règles de celui-ci. En l’occurrence tu peux pas l’utiliser pour des activités illégales, pas non plus pour de la désinformation et certainement dans ce cas que tu ne dois pas pouvoir chercher à extraire des données techniques sur le fonctionnement de l’outil lui-même… Ce qui a été fait ici.
Reste à définir si ça s’applique à cette situation, et si la condition qui n’a pas été respectée n’est pas abusive ou sur-interprétee.