Commentaires : Méfiez-vous de ChatGPT... Samsung en a fait les frais!

Pas plus de récolte d’information qu’une simple recherche Google, de l’utilisation d’un smartphone et de ses nombreuses applications qui savent beaucoup de choses sur nous.
La seule différence c’est le respect du RGPD et la non divulgation. Là où ChatGPT réutilise tout ce qu’il voit et apprend.

1 « J'aime »

On peut faire çà. Trop bien pour moi qui ne fait pas de code. Je vais tester çà de suite…
Euh comment çà marche, on me demande de me loguer à un compte OpenAI ou de m’enregistrer. Mais non je veux pas faire çà moi. Testé sur un site gratuit mais limité à 5 réponses. Après il faut un « accès prioritaire » mais çà fonctionne.

Ce n’est pas l’IA qui a vendu ces données. Cependant, étant donné que les conversations peuvent être examinées par des formateurs en intelligence artificielle pour améliorer les systèmes, il est important de lire attentivement les termes et conditions avant de créer un compte. En effet, les termes et conditions mentionnent que « Veuillez ne pas partager d’informations sensibles dans vos conversations. » Néanmoins, cela ne garantit pas que les personnes ayant accès à ces données ne les vendront pas.
Après qui ayant accès à ces données ne les vendraient pas ?

1 « J'aime »

Oula je ne pensais lire autant de commentaires du siècle dernier sur un tel Forum.
L’independant en informatique qui fuit le cloud parce qu’il a peur qu’on lui vole ses donnees…
A moins d’avoir inventé un système totalement original et innovant il y a fort à parier que la silicone Valley s’en moque royalement du bout de code Mr Michu…
Bref il faut juste un peu de jugeote et comme dit plus haut savoir lire les lignes du contrat…

2 « J'aime »

Comme le disait bien ce célèbre trio des années 90 : « Il ne faut pas prendre les gens pour des c… Mais il ne faut pas oublier qu’ils le sont. » :smirk:

Bon weekend à vous

Sans blague !
On ne serait pas loin du sommet de l’Himalaya de l’incongruité (j’aurais bien utilisé un autre mot mais c’est pas poli) ce coup-ci quand même.
Confier des secrets industriels à une IA dans le cloud situé chez un concurrent et programmé par lui, laquelle en plus utilise toutes les donnés qu’on y entre pour formuler une réponse aux questions que d’autres vont poser et « s’étonner » ensuite des fuites…
Il doivent fumer une sacrée moquette chez Samsung.
Au moins celui qui a donné l’autorisation… et tout ceux qui ont validé… et tous les ingénieurs que cela n’a pas fait tiquer, ça commence à faire du monde .

Non, même pas. Chat GPT ne réutilise ce qui lui a été donné dans une conversation que dans le contexte de cette conversation. Pas en dehors. Sinon ça serait assez facile pour des petits malins de lui apprendre n’importe quoi pour qu’il aille le recracher ailleurs. Ce système de contexte permet aux utilisateurs d’affiner un peu le comportement de Chat GPT, mais sans risque de dérives comme celles qu’on a pu voir avec le chat bot que Microsoft avait branché à Twitter il y a quelques années et à qui les gens avaient appris à être raciste.

On s’en rend d’ailleurs facilement compte : il suffit d’apprendre un nouveau mot à Chat GPT dans une conversation, par exemple un « phonepad c’est un téléphone en forme de gamepad » puis de lui demander dans une autre conversation (y compris avec le même compte OpenAI) ce qu’est un « phonepad », il sera incapable de répondre.

L’apprentissage de Chat GPT est basé sur des données publiques collectées sur Internet avec un robot, exactement comme le fait un moteur de recherche. D’ailleurs, comme les moteurs de recherche sérieux, Chat GPT respecte la norme robots.txt pour permettre à l’éditeur d’un site web de lui donner des instructions sur ce qu’il peut ou ne peut pas indexer.

Hhhhaaaaaaaaaaaaaaaa !
Ok. Bah comment les données de Samsung ont fuités alors ??

Ah la vache ! ils seraient pas un peu c*n chez Samsung ?
Ils valident l’utilisation d’un outils clouding externe et balance un code sensible dessus et trouve drôle qu’il y a des fuites après… ?
Perso je n’est jamais pu testé l’outil parce qu’il veux que je rentre mon numéro de téléphone… eux rentre un code sensible XDDDDDDDD

Replacez dans cet article ChatGPT par n’importe quoi (Gmail, le Cloud de Bidule, votre voisin) et vous avez exactement le même contenu.
Mais ça fait plus cliquer que de dire, "les employés de Samsung ont balancé volontairement des infos n’importe où, et se disent maintenant que c’était ptetre un peu c*n)

1 « J'aime »

Bon weekend a vous aussi, et bonne fête de pâques !!

Bah à priori, elle n’ont pas véritablement fuité en fait. Samsung a juste communiqué sur le fait qu’elle sait que ces données ont été envoyées à Chat GPT et sont donc vraisemblablement aujourd’hui stockées sur les serveurs d’Open AI (qui garde les historiques pour éventuellement pouvoir les analyser). Elles ont dont juste fuité de Samsung vers Open AI, rien de plus à ce jour.

Pas de quoi en faire un fromage alors.
Toutes les actions sur internet sont aussi tracés de la même façon. Ils ont découvert comment fonctionne internet. Hihi

L’IA c’est d’abord un grand savoir, un big data qui accumule tout ce qui lui est dit, pour l’instant…
Le but final est de TOUT savoir alors un jour le bidule viendra se servir directement dans nos ordis, si vous avez des secrets, débranchez !

Donc vous avez externalisé vos données, elles ne sont pas plus (ni moins) sécurisées que dans n’importe quel Cloud finalement.

Effectivement, ce que vous décrivez est un Cloud privé mais ça reste du Cloud avec des données externalisées.
Donc vous n’avez pas fui les clouds mais juste opté pour une option différente de ce que proposent par défaut les gros clouds providers.
Vos données restent accessibles via un réseau (et physiquement, même si c’est compliqué) donc potentiellement vulnérables (un VPN ne vaut pas une isolation complète du réseau).

Et dans tous les cas si un employé décidait de faire un copier/coller dans ChatGPT, vos données deviendraient exploitables par ce dernier.

Enfin sachez que même chez Azure il est possible de racker son propre matériel, tout est question de moyens financier mais ça existe.

En matière de sécurité, avoir des certitudes c’est ouvrir une première faille de sécurité.

Donc être « On-premise » n’est en rien une garantie de confidentialité comme semblait l’affirmer votre premier poste.

Le problème n’est donc pas d’avoir ses données en externe ou en interne mais l’utilisation qu’on en fait et une fuite de données est à l’origine plus souvent humaine que technique.

J’ai montré tout ces échanges à chat GPT et m’a répondu…y a que la vérité qui blesse…O⁠_⁠o

Alors si, ils s’en moquent puisque mon propos n’était pas de mettre un bout de code sur Chatgpt mais sur les serveurs d’un cloud de type azure ou amazon.
Là, à moins d’avoir réinventé la roue ou d’y stocker des données ultra confidentielle, vous ne risquez pas grand chose…
Après a chacun son degréde paranoïa.

Quand a youtube ou autre, confère la bourse même combat, gestion du risque et non de naïveté.