Une récente étude d’OpenAI, menée en collaboration avec Apollo Research, a révélé que l’intelligence artificielle était capable de mentir.
Quasi toutes les IA dites « LLM » se basent sur les statistiques des occurrences. Donc tant que les IA ne feront pas la différence entre les « Fake News » et la vérité, le tangible, le réel, le démontré, les preuves et les mathématiques, elles seront sujettes à « sortir » l’information qui est statistiquement la plus répandue sur le NET.
Par exemple (grossier) : si nous savons tous (du moins, je l’espère) que la terre est ronde et tourne autour du soleil selon une poignée des mathématiciens, astronomes, NASA, Galilée, … mais que statistiquement il y a bien plus d’avis qui disent que non elle est plate, et que le soleil tourne autour de la terre (bien plus d’avis que de preuves pourtant vérifiées), eh bien, la statistique du plus grand nombre d’opinions va faire que les IA vont répondre que la terre est plate et que le soleil tourne autour de la terre.
C’est un exemple basique pour bien faire comprendre le comportement et l’intellect d’une IA.
De plus, nous savons tous que la littérature sous toutes ses formes peut être sujette, aussi, aux sarcasmes, aux thèses, antithèses et synthèses, blagues et cynisme. Nous, humains, avec notre intelligence et nos cultures nous savons naturellement trier le vrai du faux (en théorie) et de parfaire nos avis et opinions. Mais qu’en est-il de la programmation de ces IA et de leur réponses?
Est ce que cette exemple pourrait servir à une IA ?
C’est facile à constater : je suis en train d’écrire une petite nouvelle en m’accompagnant de chatGPT pour voir comment l’IA se comporte sur des projets de ce type. Je lui ai posé à trois reprises (à plusieurs versions différentes de cgpt) la question de la confidentialité des échanges, rapport aux idées que je lui indique pour l’histoire et que je n’ai pas envie de voir se balader ailleurs. « Il » m’a répondu que la confidentialité était assurée et que tout le projet restait confidentiel, alors que l’on sait pertinemment que non, vu que les dev d’open AI ont potentiellement accès à tout -compte tenu de l’importance de ces données pour l’évolution de cgpt. Il suffit de voir comment Crosoft tente par tous les moyens de nous imposer copilot dans le but simple et à peine masqué de pomper de la donnée en masse. Le principe est le même.