Malgré la puissance des chatbots, ceux-ci ont encore tendance à produire de fausses informations. Dans le langage courant, on appelle cela des hallucinations. Iris.ai, une start-up européenne, développe actuellement un outil pour contrer ce phénomène.
Heu…
Qu’est-ce que « vérité fondamentale » ?
« l’équipe établit les concepts à l’avance » ?
Si c’est pour orienter les réponses, c’est de la censure ou du partie pris, bref aucun intérêt
Clair.
Encore une « start up » dont on entendra plus parler d’ici peu, une fois le tiroir caisse vidé.
« Utiliser une IA pour vérifier qu’une autre IA ne se trompe pas, ce n’est pas l’équivalent d’un serpent se mordant la queue ? »
C’est le principe de certains GANs spécifiques.