Des chercheurs suédois ont inventé une maladie fictive, publié deux faux préprints académiques, et regardé quatre grands chatbots la valider en tant que vraie pathologie. Deux ans plus tard, certains n’ont toujours pas rectifié le tir.
La question intéressante serait de savoir ce qui a généré l’évolution de l’IA sur le sujet, notamment si des articles ont relayé l’expérience, apportant donc au jeu de données un éclairage supplémentaire, ou si les modèles ont évolués pour mieux comprendre le contexte fictif de rédaction du rapport…
En tout cas, cette histoire est une preuve de plus qu’on se jette beaucoup trop vite sur l’IA.
Ceci prouve une fois de plus que les LLM n’ont d’intelligence que le nom. Ce sont juste de bête modèle qui copient (illégalement) et crachent avec une jolie mise en forme.
La question est ; pourquoi les biologistes et médecins ne nourrissent pas un réseau de neurone à apprentissage profond avec des connaissances académiques ? Ils le font bien déjà avec l’imagerie pour détecter un cancer. En maîtrisant la connaissance à la source de l’apprentissage, on est bien plus sûr de la qualité de la réponse.