Les chatbots d’intelligence artificielle, souvent bluffant de réalisme, diffusent tout de même deux fois plus de fausses informations qu’il y a un an. Certains sont devenus des relais involontaires de la propagande russe.
« Idiocraty » arrive à grands pas… Quand la réalité dépasse la fiction ;(
Dire que le pdg de mistral a chaque interview met comme point fort la fiabilité.
Déjà 10% d Claude c est beaucoup, mais 36% et si ce n est pas corrigé c est grave
Pour Perplexity, ils ne passent pas par d’autres IA justement?
Si, mais c’est un genre de gros RAG, ils ont leur index de pages, ils cherchent dans cet index les pages qui collent le mieux avec la requête, et les envoient ensuite à des LLM pour construire une réponse à partir du contenu de ces pages.
Donc la fiabilité des réponses ne dépend pas que du LLM, mais aussi de la qualité de l’index et de la sélection initiale des pages pertinentes dans l’index.
Si par exemple cet index est bourré de pages de mauvaise qualité au contenu généré par des IA, ça va dégrader la qualité du résultat final.
Si ce n’est pas malheureux de ne pas être fichu d’avoir une opinion personnelle, sans aller voir sur internet…
Y a plus que du vent, dans les crânes.