ChatGPT va devoir faire face à deux nouvelles plaintes qui émanent cette fois de notre pays.
Le bal des pleureuses.
Vous en tête.
France : la CNIL reçoit ses premières plaintes visant ChatGPT, pourquoi ?
Parce que ça commence à sentir mauvais?
Quoi ? Un modèle de langage qui en est à ses balbutiements peut se tromper ? Oh bah ça alors ? Mais sérieux… Tout le monde a l’air d’oublier que ça reste un programme. Ce n’est pas Bernard pivot ni Yoda, ni une personne ! C’est un outils de travail. Au gens de se sortir les doigts pour vérifier la justesse des réponses données ! C’est dingue ça.
GTP-5 est dans les cartons. Son entrainement se termine à la fin de l’année, en décembre 2023. Sa particularité ? On ne pourra plus faire la différence entre cette IA et un être humain. Lu quelque part : jeuxvideo.com, je crois.
En plus du risque pour les données confidentielles il y a cela : j’avais lu tantôt que le jour où l’on pourra plus faire la différence entre l’IA et l’humain, il y aura un vrai danger.
Mais pour l’instant on en est à ChatGPT-3.5. GTP-4 sur Bing/Edge, c’est pour les abonnés au ‹ Plus ›.
« Ce dernier a en effet constaté que ChatGPT inventait des informations à son sujet quand il était interrogé, un dysfonctionnement souvent évoqué pour cette machine. « Lorsque je demandais plus d’informations, l’algorithme a commencé à affabuler et à m’attribuer la création de sites web ou l’organisation de manifestations en ligne, ce qui est totalement faux » »
Je sais pas si on doit trouver ça ridicule, ou exagéré.
Quand on demande à Google de nous chercher quelque chose, et qu’il nous sort 10 000 résultats alors que seuls les 10 premiers ont éventuellement du sens, y’a pas de plainte de portée.
Idem quand on s’aperçoit qu’en fait, quand on tourne les pages, ça réduit très rapidement (l’illusion du nombre de résultats pour être satisfait ?)
On pourrait aussi se plaindre du fait que parfois Google insiste sur une expression précise comme si on l’avait mal écrite, alors que pas du tout, et se fout complètement de notre requête pour nous imposer des résultats qui n’ont rien à voir.
A la limite, je préfère qu’une IA m’invente une vie plutôt qu’elle balance un compte rendu de tout ce qu’elle pourrait trouver !
Est ce que au moins ils savent l utiliser ?