Commentaires : Votre assistant IA hallucine ? 4 astuces pour obtenir des réponses fiables

Impossible de faire confiance à votre assistant IA ? En utilisant les bons prompts, il est possible de réduire considérablement ses hallucinations.

https://clubic.com//actualite-607870-votre-assistant-ia-hallucine-4-astuces-pour-obtenir-des-reponses-fiables.html

« Agis comme un expert » est à proscrire, les résultats sont pires que si on ne dit rien
https://korben.info/dire-a-une-ia-quelle-est-experte-la-rend-moins-performante.html

sinon « ne mens pas et n’invente rien » sont à mettre dans tous les prompts

"Agis comme un expert dans ce domaine. " : OUi je confirme j’avais aussi lu ce message, on consulte les mêmes sites :smiley:

chatgpt passe son temps à halluciner, je l’utilise de moins en moins à cause de ça

1 « J'aime »

Une autre méthode qui marche bien et que j’utilise avec Claude AI; je lui demande « es-tu sûr de ce que tu dis » ? Il me répond " franchement non, je vais vérifier"; il fait alors une recherche pour trouver une meilleure réponse.

C’est faux. C’est extrêmement contreproductif selon les secteurs où tu bosses. Si tu demandes à une IA de ne rien inventer, elle ne fera que copier ce qui existe déjà. Quand tu cherches à innover, c’est… stupide en fait.
Généraliser qu’ils sont à mettre dans tous les prompts est faux.
Sinon, RAG + audits croisés (interne vs source) donnent de bons résultats. Le mot clé audit force l’IA à faire un contrôle intensif de ce qu’elle génère.

J’ai remarqué qu’au fil de la discussion faut lui parler de plus en plus comme un bébé en rabâchant les notions et résultats précédemment trouvés. L’IA s’égare dans plusieurs directions et en s’éparpillant tronque de plus en plus d’éléments précédemment validé dans le résultat final.

Que ce soit avec Gemini ou ChatGPT je ne compte plus les cas où la réponse ne me semblant pas logique je contrôle par d’autre moyens pour finir par contredire l’IA qui me répond « Vous avez raison ce n’était pas la bonne réponse… ».

1 « J'aime »