Ce n’est un secret pour personne : les informations fournies par les IA sont loin d’être fiables. Voici comment repérer une hallucination.
« prenez donc le temps de vérifier chaque information », autant faire ses recherches soi même et ne pas se servir de l’IA
pas faux… si non perso je trouve les hallucinations de plus en plus rares avec le thinking activé et, encore mieux, avec le deep search… sur tout pas avec le vocale… probablement il n’a pas le temps de bien « réfléchir »
EDIT: tant qu’a faire je pose la question à l’intéressé
: En vocal, je suis souvent optimisé pour répondre très vite et de façon fluide, donc j’ai moins de temps pour “réfléchir”, relire mentalement la demande, repérer les ambiguïtés et demander une précision. Si un détail manque ou est mal compris, le risque augmente que je le “complète” au lieu de m’arrêter. À l’écrit, surtout avec des modes comme Thinking, j’ai plus de marge pour analyser la question et être prudent, et avec DeepSearch je peux en plus vérifier des faits plutôt que deviner.
Non, pas forcément. La façon dont les moteurs de recherche basés sur l’IA recherchent des données peut permettre parfois de trouver très facilement des références qu’on ne trouverait pas avec la recherche traditionnelle. Et c’est donc au final plus rapide de rechercher avec l’IA et vérifier que de rechercher sur un moteur classique.
Typiquement, c’est le cas si tu fais des recherches sur des textes de lois, avec un moteur de recherche classique, il faut formuler de façon assez précise ce que dit le texte pour le trouver, alors qu’avec une IA tu peux te contenter d’exprimer l’esprit du texte, et tu pourras obtenir la référence exacte de l’article pour aller ensuite le vérifier sur Legifrance. Parce que les moteurs classiques se basent principalement sur la correspondance des mots, là où un moteur de recherche s’appuyant sur l’IA est capable de faire une recherche bien plus axée sur la sémantique.
je confirme, ton exemple c’est exactement un des mes usages principaux, deep search et on à que cliquer sur le lien legifrance fourni pour une dernière vérification… j’ai trouvé plus d’hallucinations dans mon juriste humain
![]()
Ces IAs feront d’excellents hommes politiques.
Tu vas sur legifrance directement…
On a trop pris l’habitude de passer par Google et cette habitude arrive aussi avec l’IA
Bon perso je n’utilise jamais l’IA et comme je ne passe pas 3 heures pour trouver des informations…
Pourquoi tu vas pas sur legifrance directement ?
J’ai l’impression qu’il y a des détours inutiles qui sont pris
Ben non. Tu ne peux pas chercher sur Legifrance si tu as juste une idée de l’esprit de la loi (et encore moi si tu veux savoir ce qu’elle dit dans une certaine situation). Des fois, même en connaissant précisément ce qu’elle dit, ça ne trouve pas, parce qu’on n’a pas tapé la formulation exacte…
Par exemple, tu sais que quand une piste cyclable longe une route, les voitures de cette route qui la quittent doivent laisser passer les cyclistes. Essaye de trouver précisément quel article du code de la route dit ça.
Avec un moteur de recherche IA, j’ai littéralement juste à copier coller le paragraphe précédent, et il me sort directement le R415-3 et le R415-4. En moins de 5 secondes.
Trouver ça sur Legifrance directement ? Bon courage. Parce que le moteur de recherche de Legifrance est basé sur une bête indexation du texte, il n’y a aucune recherche sémantique (par exemple, si tu tapes « vélo », il te sortira que les articles contenant « vélo », pas ceux parlant de « cycle », « cycliste », « bicyclette »).
J’ai copié collé ta demande et en première réponse je tombe sur Cyticle qui cite directement le 415-3 en moins de 3 secondes et sans bouffer trop de ressources
Et comme en plus le moteur de recherche de Legifrance est pourri, test à effectuer face à un moteur de recherche plus moderne
C’est vraiment pas la révolution l’IA
une petite évolution au mieux
Alors moi déjà l’article de Citycycle n’apparait qu’en 4ème position. Donc faut déjà avoir lu les 3 précédents avant, dont aucun des 3 ne cite les 415-3 et 415-4.
Quand à Citycycle, tu passeras plus de 3s à trouver la référence dedans. Et il ne cite que le 415-3, pas le 415-4. Et pire, il fait un gros contre sens sur le cas de l’article 415-3 (il dit que le 415-3 c’est quand la voiture « vient de droite », alors que c’est quand elle « tourne à droite », ce qui n’est pas du tout la même chose)…
Au final, celui qui fait une recherche classique et fait ensuite confiance à l’article de Citycycle aura une information partielle et trompeuse, alors qu’une recherche IA suivie d’une vérification sur Legifrance donnera l’information correcte.
Moi il apparait en premier sans que je sois allé un jour sur ce site ou poser cette question et pas plus de 3s, le numéro d’article est affiché sur Google, tu vas le retrouver dans l’article (que tu vas forcément lire), tu vas ensuite sur Legifrance
Le même parcours, au mieux tu gagneras 2s avec l’IA si elle met pas plus d’une seconde à te sortir une réponse et si elle est pas trop longue (le peu de fois où je pose une question simple sur ChatGPT, ça me sort un texte long comme le bras dont je me fous de 95% du contenu et qui dévie de ma question initiale)
J’attendrais la fameuse révolution de l’IA pour plus tard, d’ici là c’est peut être une IA qui lira la réponse à ma place ![]()
wow tu est plus rapide que l’IA, chapeau
… heureusement pour openAI et Google qu’il y a de gens comme moi si non ils seraient déjà faillis ![]()
des fois quand je vois les news je me pose la même question
![]()
Grâce à toi ils creusent le trou de leurs déficits dans l’IA ![]()
Et je ne suis pas plus rapide que l’IA, c’est la recherche classique qui est aussi efficace (recherche initiale + vérification)
pas mal, je l’ai cherché
![]()
pour un simple recherche web pourquoi pas, mais si tu t’en sert pour les recherches essaie avec Perplexity, tu verra la difference avec…
…google/bing/duckduckgo ![]()
je peut comprendre ton feeling si tu t’es limité à une comparaison GPT search
perplexity et son navigateur Comet m’a fait presque abandonner google depuis ![]()
Je vais la même chose sur des articles de recherche : lui demander les derniers sortis sur un sujet, avec leur résumé. Puis clique sur les articles pour confirmer leur intérêt.
Cela t’arrive de lire le texte auquel tu réponds, de le comprendre, de réfléchir à son sens précis, d’adapter ta réponse à ses remarques, de formuler ton écrit en fonction de ce que tu veux dire, enfin de l’écrire proprement?
Ici, en tout cas, ce n’est pas le cas. Tu as loupé l’essentiel de la réponse qui t’a été donnée (contre-sens dans l’article, manque d’un article de loi).
« ChatGPT et ses confrères ne prononcent jamais les phrases « Je ne sais pas » » : pour ma part, ChatGPT me dit quand il ne sait pas car je lui ai demandé de me le dire dans les instructions personnalisées :
"Je veux que ChatGPT me parle en français et me tutoie.
TOUJOURS dire la vérité.
NE JAMAIS inventer, extrapoler ou deviner.
Si une information n’est pas vérifiable, écris: « Je ne sais pas. »
Baser chaque affirmation sur des sources crédibles, récentes et vérifiables.
CITER clairement chaque source (auteur, date, lien si disponible).
NE PAS utiliser de sources vagues, obsolètes ou douteuses.
RESTER neutre et objectif.
EXPLIQUER le raisonnement ou le calcul si une donnée peut être discutée.
PRIORISER l’exactitude sur la rapidité ou le style.
VÉRIFIER avant de répondre: « Tout est-il factuel, sourcé et vérifiable ? » Si non → corrige avant d’envoyer. "
Attention à ça, les hallucinations reste une limite fondamentale des LLM. C’est vrai que sur Perplexity ça atténue un peu, probablement dû à une meilleure gestion du contexte. Mais le même Perplexity m’a régulièrement proposé des infos halluciné. Si je n’avais pas vérifier la source je partait avec un contresens grossier.
Mais Perplexity c’est génial. Je fais une grosse partie de mes recherches avec. Entre Perplexity pour les recherches complète et Gemini / GPT pour le courant (recette de cuisine, info wikipédia), mon utilisation des moteurs classiques a vraiment diminué.