Commentaires : ChatGPT hallucine et cela pourrait coûter cher à OpenAI

ChatGPT fait l’objet d’une nouvelle plainte pour atteinte à la vie privée. La technologie aurait accusé un citoyen norvégien d’avoir assassiné ses enfants. Problème : c’est complètement faux.

Le plus gros problème c’est pas l’IA mais les gens qui croient à tort que celle-ci est infaillible et qu’il faut lui faire confiance à 100%. Il ne s’agit que d’algorithmes créés par des humains, et si l’erreur est humaine, l’IA peut tout autant en faire… Si on utilisait notre cerveau aussi ça serait bien!

Hier encore je parlais avec des gens qui disaient « oui maintenant avec l’IA tu peux faire-ci, tu peux faire ça c’est génial », un autre a répondu qu’on peut faire ça aussi soi-même et que on ne devrait pas tomber dans la fainéantise et laisser tout faire à l’IA car les gens ne réfléchissent plus.

7 « J'aime »

Cette histoire remonte à aout 2024 donc c’était y’a 1 an, l’ia a énormément évolué depuis

1 « J'aime »

si tu poses la question à une IA c’est que tu ne connais pas la réponse, et donc que tu es obligé de faire confiance.
Si tu passais ton temps à vérifier la réponse, parfois (dans beaucoup de cas en fait) le temps que tu passes à vérifier la réponses équivaut au temps que tu passes pour trouver toi même la réponse.
Alors quel intérêt de l’IA dans ce cas ?

1 « J'aime »

Les LLM ne servent pas que à répondre à des questions, ils sont notamment aussi des aides à la rédaction/reformulation, ils peuvent servir à extraire et structurer des données issues de documents, etc…

1 « J'aime »

Cela reviendrait exactement à la même chose si tu fais une recherche classique sur Google, que tu t’arrêtes au premier résultat et que tu penses que c’est bien la bonne réponse sans chercher à approfondir. J’ai juste l’impression parfois qu’il y a des gens qui consultent l’IA pour avoir une réponse à quelque chose et s’arrêtent donc au fait que si ChatGPT l’a dit, c’est que c’est forcément vrai et cette info est fiable. On appelle ça recouper ses sources.

Quant à d’autres usages de l’IA, il y a effectivement plein de possibilités mais ça ne devrait pas nous empêcher de penser aussi par nous-même. Dans le cas présent par exemple, une IA qui donnerait des fausses informations sur une personne, ça peut vraiment porter préjudice.

2 « J'aime »

Beaucoup de gens l’ignorent. Ne savent même pas ou mal ce qu’est un algorithme. Surtout que les IA mises en cause restent opaques sur leur mode d’entrainement (viol de données non libres de droit).
Et quand la majorité des internautes se retrouve arrosée sur les réseaux par le résultat des hallucinations d’IA, sans savoir s’où ça vient, peu ont les codes pour le démasquer. Quand c’est possible.

Les IA génératives mainstream n’apportent rien de bénéfique pour les citoyens. Sauf pour tricher, tromper et nuire.

2 « J'aime »

il y a quand même une différence : google te donne le lien vers une page. Tu es obligé de lire la page et d’en tirer les informations. Par là même tu fais l’action de vérifier.
Pour l’IA : tu sautes cette étape et arrives directement au résultat prêt à consommer.

et justement : comment tu vérifies que l’extraction est correcte ou que la donnée est correctement structurée, sans avoir toi même fait le boulot ?
Tu as 1.000.000 mots à résumer. Comment peux-tu être sûr que le LLM ne va pas oublier certains mots que tu aurais considéré comme important, si tu n’as pas fait l’effort de lire les 1.000.000 mots ?

Déjà, dans pas mal de cas il est plus rapide de vérifier ce qui a été fait que de le faire soi même.

Ensuite, il y a des notions de taux de fiabilité. Selon le contexte, on peut accepter un certain taux d’erreur. Une fois qu’une solution a été validée avec des tests exhaustifs pour mesurer le taux d’erreur, on peut ensuite continuer à l’utiliser avec des vérifications plus basiques.

Ai-je dit que ça dispense de faire la lecture ? Non. Mais lire puis résumer, c’est un effort beaucoup plus important que lire puis lire un résumé.

Autre exemple, avec la génération de code. Pour des structures de code classiques, c’est bien plus rapide de faire générer puis de vérifier que d’écrire le code. Ce qui dégage du coup du temps pour mieux se concentrer justement sur les parties plus complexes, qui ne sont pas à la portée d’un LLM spécialisé dans le code.

L’IA te dirait « La terre est plate », tu vas donc te dire « OK, voilà ma réponse prête à consommer » ? Les IA peuvent être biaisées, car éditées par des sociétés qui ont pour objectif de faire du commerce et rien ne te prouve qu’une information qui en ressortirait ne soit pas en réalité orientée vers les intérêts d’une société, ou de la politique. DeepSeek par exemple a déjà été pointée du doigt pour éviter certains sujets qui gênent la Chine.

Mais grave.

On a eu une discussion il y a peu au taf avec mes collègues, et c’est inquiétant de voir qu’une large majorité ne comprend rien à cette « technologie », et à qui le marketing, aidé des sites d’info généraliste ou spécialisée, fait croire que ce qui leur est présenté est réellement intelligent, et donc ce qui leur est présenté est « la vérité »…

Je, nous, ne le répéterons jamais assez, il n’existe aucune intelligence artificielle, juste des algorithmes aussi complexes qu’imparfaits et parfaitement bêtes…

Bref, ce jour-là j’ai au moins « éduqué » quelques collègues, en espérant qu’ils n’oublieront pas.

2 « J'aime »

Je suis d’accord mais là c’est quand même abusé

Non.
En tout cas, pas sur ce point.

Rappelons encore une fois que les machins « IA » de type Chat GPT ne sont que des moteurs générant du texte sur une base statistique.
Pour vulgariser au maximum l’histoire en gros, le moteur va placer les mots les uns derrière les autres en fonctions des probabilité que les dits mots se suivent (de manière logique, etc.).
Sortie de là, la « réalité » des propos n’est pas ou très peu évaluée.

1 « J'aime »

L’IA est un outil point final. Et comme un clou peut se tord, forcement l’IA peut faire des erreurs. Ceux qui ne le comprennent pas sont juste inconscient vous avez tout a fait raison.
Mais un outil peut aider les gens non qualifié a réussir tel le guide a clou pour ne pas torde le clou. Et c’est là que l’IA est très puissante avec sa polyvalence.

Quand on ne connait pas un sujet et qu’on questionne l’'IA il faut quand même regarder et se renseigner sur les sources. Oui c’est un travail qui peut prendre du temps, mais c’est nécessaire pour faire avancer la machine, sinon c’est le paradis du faux qui va se développer à nous. Et on y est deja les 2 pieds dedans.

Certes, cependant, tu as quand-même intérêt à connaitre un minimum le sujet, sinon c’est un coup à partir dans un truc inexact, voir complétement faux. :smirk:

J’ai fait des tests avec l’IA justement (Perplexity et Mistral) pour comparer différents produits (très techniques), dans les deux cas, OUI, ils donnent des résultats probant sur certains trucs, dans d’autres c’est juste une immense catastrophe : Des fonctions indiquées absentes pourtant bien présentes, des tailles d’écran aux fraises (genre" c’est la même taille", alors qu’on a dans le produit A du 4.3 pouces et du 5 sur le produit B) …

Ah et évidemment, il en est de même dans l’autre sens, c’est à dire : « Oui, oui, c’est possible de faire cela avec le produit A » … Alors que non.

Je le dis encore une fois parce que visiblement mon post précédent n’était pas suffisamment clair :

Les outils d’IA tels que ChatGPT, Mistral AI, Claude, Perplexity, etc … sont avant tout des générateurs de textes qui fonctionnent sur base d’analyses statistiques (très poussées certes) et qui placent les mots les uns derrière les autres en fonction de probabilités.

Oui, ils écrivent des textes qui tiennent la route grammaticalement parlant et en termes de sens (les textes veulent dire quelque chose), mais la réalité des choses et la pertinence ne sont en aucun cas évaluées (et sont souvent absentes).

1 « J'aime »