Commentaires : ChatGPT : il n'y a pas que l'historique des utilisateurs qui a fuité

L’intelligence artificielle à la mode a été victime d’un nouveau bug qui a cette fois entraîné la fuite de plusieurs informations personnelles de certains utilisateurs.

N’ayant pas testé ce feu de paille, pas de soucis.
Ça devient croustillant, qu’apprendront nous demain ?

Ca serait pas mal que des sites tech genre Clubic n’utilisent pas le terme Intelligence Artificielle à tort et à travers comme tous les média généralistes.

Ce n’est pas une IA. Je ne juge pas de la puissance ou de l’utilité de ChatGPT (et autre).

Pour en revenir à la news, c’est quand même des amateurs… Et ce n’est pas rassurant. Espérons que Microsoft va faire du menage dans le code pour éviter ce genre de faille.

1 « J'aime »

Auntant le code derrière le modèle GPT est une tuerie, autant celui derrière leur site etc et digne d’un script kiddie de 16 ans avec 2 ans de Youtube derrière pour en arriver à se mélanger à ce point les pinceaux.

C’est pas du hack, du vol de données ou quoi que ce soit, c’est un code mal foutu qui te sorts des résultats pas assez testés à des requêtes pas assez sécurisées.

Mouais, en fait, c’est surtout là qu’on s’aperçoit qu’il y a de nombreux métiers dans la tech et qu’on peut être incroyablement doué en recherche fondamentale, en maths, en stats et en tout un tas de choses pour pondre une IA impressionnante et par là même, pas foutu de monter un site sécurisé.
Et c’est bien un problème de sécurisation de site ici, pas un problème d’IA…

Fallait demander à chatgpt de sécuriser son propre site internet…

4 « J'aime »

@muggsy Je pense vraiment que vous en savez du tout de quoi vous parlez…

Oui, mais quand l’article commence par « L’intelligence artificielle à la mode a été victime d’un nouveau bug »…
ChatGPT n’y est juste pour rien…

2 « J'aime »