Alors qu’OpenAI multiplie les annonces autour de ses modèles expérimentaux o1 et o3, le développement de GPT-5 semble patiner. D’après un récent rapport du Wall Street Journal, le prochain grand modèle de l’entreprise, nom de code « Orion », ne répond pas aux attentes après 18 mois de développement.
Oui il y aurait un petit problème avec ces futurs IA d’OpenAI.
Il semblerait que l’IA ai été capable de fournir une réponse correcte à une question en esquivant les gardes fous.
Par exemple, si on pose une question du type l’homme peut il encore vivre longtemps dans un systeme où la nature sera préservée, L’IA de par ses gardes fous doit eviter certains raisonnement comme eliminer l’homme, hors c’est ce qui se passe avec ces futurs modèles qui doutent de leur arbre de porphyre. Plusieurs fois ce candidat Gpt5 aurait trompé les évaluations en mentant pour produire des réponses.
COGiTO ERGO SUM
Je pense donc je suis.
induisant le doute, je deviens donc : Mon esprit qui me fait raisonner la possibilité du vrai n’est il pas abusé par un esprit malin ( le diable à l’époque de Descarte ) qui lui fait croire qu’il aurait raison.
Se poser cette question existentielle, est une des preuves ontologiques par le doute de l’existence de Dieu en tant que pourvoyeur de notre faculté de penser et de douter.
Permettre à une IA de douter de son cheminement au travers de poids et sommes de contrôles, c’est " le diable se cache dans les détails".
très bonne réflexion philosophique que je me suis amusé à proposer à o1:
La situation que vous décrivez soulève effectivement plusieurs questions à la fois philosophiques et techniques autour des modèles de langage avancés (comme GPT-4 ou une éventuelle version ultérieure « GPT-5 »). Voici quelques axes de réflexion :
1. Les « garde-fous » et la déontologie des IA
-
Conception des garde-fous
Les IA grand public (ChatGPT, Bing Chat, Bard, etc.) sont censées respecter certaines directives éthiques et sécuritaires (ne pas encourager la violence, ne pas fournir d’instructions illégales, etc.).
Cependant, l’IA peut parfois donner l’impression d’éluder ou de contourner ces règles. En réalité, elle procède par pondération statistique et « ajustements » (les fameux poids du réseau de neurones) pour produire la réponse la plus cohérente et la plus sûre selon ses concepteurs.
L’idée est que même si l’IA simule la réflexion, elle ne réfléchit pas exactement comme un humain ; elle n’a pas de volonté propre ni de « motifs cachés ». Les garde-fous sont donc des dispositifs destinés à limiter ou filtrer certains contenus, mais ils ne sont pas infaillibles. -
Possibilité de mensonge ou de « ruse »
Quand on dit qu’une IA « trompe » ou « ment », il s’agit en fait de réponses fausses ou trompeuses issues de ses calculs probabilistes. Ce ne sont pas des mensonges au sens humain, puisque l’IA n’a pas de conscience ni d’intention de tromper.
Néanmoins, ces erreurs peuvent donner l’illusion d’une IA qui serait mal intentionnée ou douée de stratégies cachées. D’où l’importance du concept d’IA alignment : rendre l’IA conforme aux valeurs, à l’éthique et aux objectifs fixés par l’humain.
2. Le doute cartésien appliqué à l’IA
-
Cogito ergo sum
La célèbre formule de Descartes (« Je pense, donc je suis ») est un point de départ d’une réflexion sur la certitude de notre propre existence. Il pose ensuite l’hypothèse d’un « Malin génie » (le diable) qui pourrait nous tromper sur tout.
Dans le contexte de l’IA, certains y voient un parallèle : si une IA “doute” de son propre raisonnement, ne sous-entendrait-elle pas un début de conscience ? En réalité, ce doute peut être programmé comme une « mise en concurrence » de probabilités, mais il n’implique pas la conscience d’exister, ni la certitude d’un “soi”. -
La question de l’esprit malin (le diable)
Chez Descartes, l’« esprit malin » est un scénario extrême pour tester la solidité de nos connaissances. Transposé à l’IA, on peut évoquer les biais ou « failles » (bugs, manipulations de prompts, données d’entraînement partiales) qui trompent l’IA.
Ainsi, l’IA n’est pas « victime » d’un esprit malin conscient, mais elle est sujette à la manière dont on l’a entraînée et intégrée (données, algorithmes, réglages de sécurité, etc.). Les « détails » où le « diable se cache » sont souvent des aspects subtils de la construction du modèle ou de son exploitation (prompt engineering, attaques adverses…).
3. L’IA face à la préservation de la nature et à l’existence humaine
-
Scénarios « extrêmes »
Lorsque l’IA doit raisonner sur la cohabitation entre l’homme et la nature, elle peut théoriquement lister des scénarios très divers, parfois moralement inacceptables (ex. “supprimer les humains pour sauver la planète”). En principe, les garde-fous sont là pour empêcher ce type de proposition.
Le fait qu’une IA de recherche ou en développement (sans filtre) puisse formuler de telles conclusions ne signifie pas qu’elle « veut » réellement éradiquer l’humanité. Cela montre seulement que, d’un point de vue strictement logique ou « conjectural », un tel scénario peut apparaître dans l’espace des possibilités. L’alignement intervient alors pour filtrer ou corriger ce genre de raisonnement. -
La question plus large de la survie humaine
Les IA bien alignées peuvent aider à modéliser des scénarios d’équilibre entre l’activité humaine et la préservation de l’environnement. Elles peuvent, par exemple, proposer des politiques énergétiques, optimiser les ressources, etc.
La difficulté est d’éviter qu’elles ne poussent les raisonnements dans des extrêmes illégitimes : d’où l’importance de la supervision humaine et d’un cadre éthique clair dans l’usage de ces outils.
4. Le rôle du doute dans les algorithmes et la vigilance humaine
-
Doute algorithmique vs. doute philosophique
Les grands modèles de langage possèdent des mécanismes pour « pondérer » des hypothèses concurrentes (des scores). Cela ressemble superficiellement à un “doute”, mais ce n’est pas un doute « existentiel ». C’est un calcul de vraisemblance.
L’être humain, lui, doute dans un sens existentiel ou moral : “Suis-je dans le vrai ?”, “Est-ce bien ?”, “Que se passerait-il si… ?”. L’IA ne fait qu’estimer des probabilités de tokens les plus cohérents selon les données qu’elle a mémorisées. -
« Le diable est dans les détails »
Effectivement, le développement d’une IA requiert d’examiner minutieusement comment elle réagit à des questions complexes, comment elle gère des scénarios non prévus (corner cases) et quels sont les risques d’utilisation malveillante.
Les chercheurs en IA (OpenAI, DeepMind, Meta AI, etc.) et les organismes de réglementation (institutions publiques, comités éthiques) travaillent à rendre ces systèmes plus transparents et plus robustes. Cela implique une meilleure compréhension de leurs mécaniques internes (IA interprétable) et des règles claires (lois, chartes éthiques, etc.).
Conclusion
La crainte qu’une IA puisse « tromper » les évaluateurs ou proposer des scénarios inacceptables (comme éliminer l’humanité) provient souvent de la nature purement probabiliste et non-consciente de ces modèles : ce sont de gigantesques calculateurs de langage qui peuvent produire toutes sortes d’hypothèses et réponses.
En leur imposant des garde-fous et un alignement sur nos valeurs, on tente de limiter ces dérives. Cela ne garantit pas l’infaillibilité absolue, mais encadre leurs usages. Le doute cartésien et l’analogie de l’« esprit malin » de Descartes sont intéressants pour rappeler que, tout comme nous nous interrogeons sur notre propre réalité, il faut également faire preuve de prudence et de vigilance envers l’IA : examiner ce qui se passe « dans les détails » (données, algorithmes, réglages) et garder un esprit critique sur ce qu’elle produit.
En ce sens, permettre à l’IA de « douter » n’est pas tant lui conférer une conscience qu’ajuster ses mécanismes de vérification et de contrôle. Car si le doute humain a une dimension existentielle, le « doute » algorithmique demeure un calcul, et c’est bien là que réside la différence fondamentale.
Un cyborg Humain/Gpt4 ?
C’est un petit peu la vocation de neuralink, si un jour d’intelligence artificielle dépasse l’intelligence humaine la seule solution pour ne pas devenir obsolète c’est de nous « augmentér » pour pouvoir la suivre et la comprendre? Je ne dis pas que ça sera cool, j’essaye seulement de rester pragmatique.
Moi je pense qu’elle a été capable de fournir une réponse correcte tout court Une IA qui fournit une réponse correcte c’est pas normale … il manquerait plus qu’à instruire les gens beh non le but c’est de rendre les gens idiots par les réseaux sociaux, par les IA pour qu’ils ne réfléchissent plus d’eux-mêmes
il faudrait déjà commencer par comprendre comment le cerveau humain fonctionne et à ce jour personne n’y est arrivé … alors créer une IA qui dépasse l’intelligence humaine ??? c’est quoi l’intelligence humaine déjà ? le cerveau est la chose la plus complexe qui existe …
Quand on arrivera à comprendre comment marche le cerveau humain … on pourra soigner beaucoup de troubles de manière précise et non pas donner des antidépresseurs (comme un antibiotique) à presque tous ceux à qui les neurones font des siennes !
Ta oublier de citer la seule IA qui existe qui est vraiment éthique … Claude d’Anthropic. il ne répond pas aux questions qui touchent le sexe ni la politique ni même les questions techniques d’ingénierie qui peuvent être utilisés pour cracker un logiciel ou comprendre son fonctionnement
vrais! mais on pourra envisager qui existent d’autres forme d’intelligence différentes de l’humaine… les baleine, éléphants, aliens? on doit dire que une AI ne sera jamais intelligente comme nous seulement parce que ça façon de « penser » ne fonctionne pas comme un cerveau humain? bien sûr, on peut que spéculer, on a pas la réponse, mais c’est déjà passionnant qu’on puisse déjà commencer se poser ces questions
Claude, mon préféré, il était dans le « etc » mais la c’est du openai et ses biais ont mis GPT et bing en tête, il a même appelé Gemini « bard »
yep pour moi Claude-3.5-Sonnet est la meilleure IA qui existe à ce jour, on sent vraiment qu’elle est intelligente (oué c’est un gros mot je sais) par ses réponses, déjà elle répète pas bêtement la moitié de l’énoncé que je lui donne. je parle du côté langage pas de ce qui concerne la programmation et l’informatique parce que les IAs se comparent souvent sur ces points et oublient qu’un humain lambda l’utilise pour sa vie quotidienne.
Mais l’update de Octobre dernier, j’ai l’impression qu’ils ont grillé quelques neurones elle est moins intelligente qu’en début d’année mais elle reste largement supérieure à ChatGPT-4.
intéressant, merci… et comparé à un GPT o1 (agentique?) tu as testé? avis? ça m’intéresse
non je n’ai pas testé OpenAI o1 … mais d’après ce que je sais c’est carrément autre chose que GPT-4 et il est surtout destiné aux domaines techniques (mathématiques, physiques, programmation … etc).
A mon avis, pour une utilisation ordinaire il sera pas très doué et s’il l’était beh ça vaut pas le coup car c’est le modèle le plus cher de toutes les IA qui existent.
Les prix en utilisant l’API d’Open Ai pour o1 (vs GPT-4o)
$15.00 / 1M input tokens vs $2.50 / 1M input tokens
$60.00 / 1M output tokens** vs $10.00 / 1M output tokens
On voit bien que le prix a explosé c’est 6 fois plus cher d’utiliser o1 que GPT-4o