Commentaires : Les hallucinations sont une plaie pour l'IA générative et ses utilisateurs, mais des solutions existent pour les maîtriser

L’intelligence artificielle générative et ses outils souffrent encore d’un problème de confiance, lié à ce qu’on appelle les « hallucinations », ou l’IA qui invente et vous ment. Amazon Web Services, de son côté, mise sur la transparence et des solutions pour mieux les appréhender.

Je ne sais pas comment tu t’y est pris. même en version gratuite il dit que « Le président des États‑Unis est actuellement Donald J. Trump, qui a prêté serment pour son second mandat le 20 janvier 2025. Il est le 47ᵉ président, ayant déjà servi comme le 45ᵉ de 2017 à 2021 »

J’ai testé Grok l’autre jour, pour la compréhension de texte c’est vraiment pas terrible. Je lui ai fait lire un roman en cours d’écriture, à un moment il m’a carrément halluciné un chapitre entier que je n’avais pas écrit, avec son titre et ses actions. Sinon ChatGPT c’est mieux mais pour une raison étrange le 4o est meilleur que le 4o3 dans les questions littéraires, il comprend des subtilités qui échappent à o3. Il est également beaucoup moins woke.

Ce que les experts appellent hallucinations c’est pas juste des erreurs que commet l’IA … parce qu’en vrai si on vous donne un pourcentage d’hallucinations, les erreurs commises sont bien plus nombreuses !

Alors moi je suis toujours perdu quand j’entends hallucinations car une IA qui vous donne un fausse information, peu d’experts la considèrent comme une hallucination car ça dépend de la manière dont elle a été donnée, parfois le problème vient de l’utilisateur qui a mal formulé le prompt.

Mais le problème est là … hallucinations ou erreurs … l’utilisateur reçoit de fausses informations et il sait pas toujours distinguer le vrai du faux !

Souvent les hallucinations apparaissent pendant la discussion, pas à travers des questions directes … si tu dis dans un 1er prompt qui est le président c’est rare qu’il se trompe. mais si tu glisses la question entre plusieurs behh là il risque de raconter n’importe quoi !!!

J’ai déjà eu des cas où ChatGPT traitait les adjectifs comme des noms pendant plusieurs prompts d’affilée mais ça veut pas dire que ChatGPT ne différencie pas un nom et un adjectif en temps normal.

L’explication est simple : il t’as répondu en se basant uniquement sur ses connaissances.

Pour GPT-4o, les connaissances s’arrêtent en juin 2024.

L’explication c’est que selon la façon dont tu formule la question, il peut décider ou non de faire des recherches web pour compléter.

Dans ton cas, il n’en a pas fait (pourquoi ? je ne sais pas), sinon ça se verrait, puisque dans ce cas il ajoute des liens vers les sources qu’il a utilisées.

Comme là par exemple : ChatGPT - Trump Bill Deficit Impact

1 « J'aime »

4o n’a pas de raisonnement avancé, a tu activé au moins le web search comme il t’a dit @MattS32 ? si non avec un o3, o4 mini, high, avec deep search activé, j’ai presque éliminé toutes les hallucinations…

le gens se plaignent de l’AI mais souvent ils ne savent pas l’utiliser… (j’en conviens que c’est un peu bordelique tous ces modeles, mais GPT5 va résoudre ce problème pour les novices)

Faut vraiment avoir une confiance aveugle en ces IA pour arriver à cette conclusion :frowning:

ces IA ne sont qu’à leur début et déjà tu tiens ce genre de discours … j’imagine même pas dans 10 ans ce que tu dirais !!!

ça c’est l’argument donné pas les entreprises d’IA pour ne pas perdre leur financement mais toi c’est quoi la raison ? :stuck_out_tongue:

certes pour la programmation ou autre domaine ça nécessite une méthode spécifique pour faire les prompts mais quand il s’agit d’une simple question qui demande une simple réponse y a pas 1000 façons de la poser et n’a pas 1000 interprétations !

C’est une IA généraliste aux dernières nouvelles … ça nécessite pas une connaissance approfondie pour demander des choses basiques !

Tout à fait d’accord… et Altman en est conscient… C’est pour ça qu’il va sortir un GPT 5 qui unifie les autres modèles pour mettre fin à ce joyeux bordel … Trop complexe à utiliser actuellement pour Mme Michu… 4.5, o3, o4 mini, high, deep search… Même moi qui j’ai l’habitude pour le boulot et plein d’autres choses je m’embrouille :person_shrugging:

j’ai remarqué que sur smartphone que l’option « Réflexion » (approfondir) se désactiver à chaque prompt, donc il faut à chaque fois l’activer … je pense que c’est une stratégie pour ne pas consommer trop de ressources.

Bonne remarque, on va voir comment ils vont résoudre ça avec GPT 5