Commentaires : Avec GPT-5, ChatGPT offre sa technologie de pointe gratuitement

Sam Altman se prenait pour Oppenheimer et disait qu’il avait peur du monstre qu’il a créé et compare GPT-5 à la bombe atomique.

Je le comprends …

Y a pleins de posts comme ça sur X depuis hier :

Tu demandes à une LLM de faire des calculs, c’est comme demander à un homme politique (beau parleur) combien coûte les courses, c’est foutu d’avance… :stuck_out_tongue:
Mais par contre le raisonnement est bon!

2 « J'aime »

Bon ça fait plusieurs fois que tu répètes ce truc sous quasi chaque article sur le sujet. C’est vraiment dommage parce que tu n’auras certainement pas l’occasion d’amender le truc.

Mais dire que « Sam Altman se prenait pour Oppenheimer » est plutôt faux. En tout cas au sens ou il ferait une équivalence, comme tu le laisses entendre, entre lui et Robert ou entre GPT-5 et la bombe.

Déjà la référence vient de ce podcast

et le passage en question est à partir de 33min environ. On voit bien le contexte de la question et de la discussion.

Ensuite au moment de la discussion, Theo et Sam parle des problèmes qu’on rencontre à cause du décalage entre le rythme de la législation et le progrès des modèles comme GPT. Et la question est en substance : « est-ce que ça va pas trop vite ? Quel est votre sentiment ? ». Et Altman commence par une auto critique bienvenue : « on va trop vite, y’a des trucs qu’on a pas anticipé et sur lesquels on a merdé » (là encore en substance) et invoque le manque d’encadrement des modèles (la question de sa sincèrité en est une autre et c’est ce qu’il dit qui est important).

Et c’est là que Theo parle des inquiétudes de Yoshua Bengio sur cette question des gardes fou et intérroge Altman sur les propos de Bengio lorsqu’il parle de la duplicité des « ia ». Ce qui revient à dire qu’elles seraient insincèrent et fourniraient les réponses qui arrangent plutôt que factuelle (ce qui est déjà baroque comme discussion) et il poursuit en demandant quel est l’attitude d’Altman vis à vis des ces problèmes « émergeants », quel est son sentiment et ce qu’ils font pour les résoudre/anticiper ou est-ce qu’ils prennent les problèmes lorsqu’ils viennent (sous entendu « vous êtes toujours en retard »). Et Altman de répondre :

You know, there are these moments in the history of science where you have a group of scientists
00:34:27.599 look at their creation and just say, you know, what what if what have we done? What maybe it’s great, maybe it’s bad,
00:34:33.679 but what have we done? Like maybe the most iconic example is thinking about the scientists working on the Manhattan
00:34:39.520 project in 1945 sitting there watching the Trinity test and just you know this thing that had it was a completely new
00:34:48.399 not not human scale kind of power and everyone knew it was going to reshape
00:34:53.599 the world and I do think people working on AI have that feeling in a very deep
00:34:59.599 way you know we just don’t know like we think it’s going to be There’s clearly
00:35:04.880 real risks. It kind of feels like you should be able to say something more than that. But in truth, I think all we
00:35:12.480 know right now is that we have discovered, invented, whatever you want to call it, something extraordinary that
00:35:18.640 is going to reshape the course of human history.

Comme on peut le lire, à aucun moment il ne parle de lui uniquement mais de l’ensemble des gens qui travaille sur le sujet. Il ne se compare pas à Oppenheimer. Et il ne compare pas GPT 5 a la bombe atomique mais compare seulement leur conscience de leur ignorance quant à ce qui va advenir. Peut être que l’analogie est poussée, caricaturale et un poil dramatique et tu aurais raison de faire ce reproche.

Tu aurais tellement raison mon cher mamide que Altman est d’accord avec toi et il enchaine tout de suite (moins de 2min après l’exemple de trinity avec celui des transitors.

Maybe a less dramatic example than the atomic bomb is
00:35:37.359 when they discovered the transistor a few years later. The transistor radio, the little transistor part that you know
00:35:43.520 made computers and radios and everything else. But we discovered this completely new thing that enabled the whole
00:35:48.640 computer revolution and is in this microphone and those computers and our iPhones and like the world would be so
00:35:53.920 different if people had not discovered that and then over the decades figured out how to make them smaller and more
00:35:59.200 efficient. And now we don’t even think about it because the transistors are just everything. We have all this modern technology from that one scientific
00:36:06.240 discovery. And I do think that’s what AI is going to be like. We had this one crazy scientific discovery
00:36:12.800 that led to these language models we all use now. And that is going to change the course
00:36:18.160 of society in all kinds of ways. And and of course we don’t know what they all are.

Bref, si on est un peu charitable (et qu’on a écouté l’interview plutôt que de se reposer sur les articles sensationalistes, oui oui ça arrive aussi). On comprend qu’Altman dans ce passage parle uniquement de l’échelle des transformations que les modèles de langage vont opérer dans les sociétés et qu’on pourrait résumer ainsi :
« Les LLM vont bouleverser les sociétés à la manière des grandes inventions / découvertes /innovations, c’est certains. Ce qu’on ne sait pas c’est quelle forme prendront ces bouleversements. »

Il ne s’attribue la découverte à aucun moment, en tout cas pas comme on l’attribue la bombe à Robert.

Bref, pas lui = robert et pas GTP-5 = la bombe. Mais plutôt « en général l’ia aura des conséquences sur la forme des sociétés humaines comme la bombe et comme le transistor » et « les gens qui travaillent sur l’ia, comme les gens qui ont travaillé sur la bombe savent que ça va changer le monde, mais n’ont aucune idée de quelle forme cela prendra exactement ».

Quand a ses craintes, j’ai peut être raté le passage ou il dit qu’il est effrayé par GPT-5 mais je ne l’ai pas trouvé. Il dit a plusieurs reprise avoir peur et craindre certains usages des « ia » : comme l’usage des données personnelles, la facilité de basculer dans un « surveillance state », etc.

Bref, se méfier de la presse à scandale qu’est parfois la presse tech (clubic compris). Tellement dommage que tu ne puisses pas lire ça. En espérant qu’un jour peut être tu croisera l’interview par hasard. :crossed_fingers:

Le truc classique. Sinon plutôt qu un llm qui consomme beaucoup prendre l app photomath ou celle de Microsoft et ça donne 0.79 et on peut avoir toutes les étapes détaillées
en gros utiliser le bon outil pour le bon usage

2 « J'aime »

Oulà, mais ça demande beaucoup trop d’effort pour choisir l’outil à utiliser ça :sweat_smile:

1 « J'aime »

Ah bon ton LLM sert à quoi alors ? à faire de la programmation ? écrire du code ? … ça fait longtemps que les modèles LLM font des calculs arithmétiques (c’est une simple équation je n’ai pas demandé la lune non plus !

Pour info … les autres modèles ont trouvé la bonne réponse facilement

Grok 4

Mistral 2

DeepSeek R1

Claude 4 Sonnet et Opus (il a la faculté de se corriger lui-même)

Llama 4 Scout (Modèle le moins puissant de Llama :p)

Vous défendez OpenAI et ses Modèles on dirait que vous avez des actions chez eux ou je ne sais quoi :frowning:

PS : Ton problème c’est que tu confonds un modèle LLM avec GPT d’OpenAI, toutes les IA ne sont pas pareilles. tout comme tu considères que tous les hommes politiques sont cupides et ne savent pas combien coûte les courses !

Pour tout le monde sauf mamide (je n’aime pas rendre les gens triste) :

Résumé


plutôt fun non ?


et enfin le plus fun ?

on a donc la réponse à pourquoi ce mystère soulevé par l’Amimamide (je vais l’appeler comme ça maintenant) à savoir pourquoi chatGPT se plante quand on dit :

solve : 5.9 = x + 5.11

et les autres réussissent là ou on demande

solve this equation 5.9 = x + 5.11

that’s not the same f ing question

thats-all-folks-looney-3173686482

:heart:

Du coup @Nmut je ne suis pas convaincu quant au fait que tu confonds tout et n’importe quoi. Tu m’as l’air plutôt correct.

PS: il reste un doute pour Mistral, il n’y a pas la question sur les screens de l’Amimamide

PPS: pardon pour les screens j’aurai pu partager la conv mais j’utilise la version sans compte histoire de limiter les interférences et l’historique.

PPPS : personne ne défend Open Ai ici loulou. On serait plusieurs à être très content si Mistral était meilleur et je vois beaucoup des personnes que tu accuses de « défendre open ai » les critiquer assez régulièrement. personne ne te veux du mal ici, même si on se paie parfois une tranche de rire à la lecture.

1 « J'aime »

Chat GPT 5 heureusement que les bench montre qu’il est le meilleur

Le chat est moins bon en bench

1 « J'aime »

Someone has a token issue ahhahaha

La secte s’agrandit de jour en jour …

J’ai répondu au mec qui disait qu’un Modèle LLM ne sait pas faire de maths, et je crois que les screens ont suffit à démontrer qu’il a tort !

Maintenant c’est bien de faire des recherches et savoir pourquoi les autres donnent la bonne réponse … ça n’intéresse pas les utilisateurs en fait, la seule chose qu’un utilisateur verra c’est que le monstre GPT-5 ne sait toujours pas faire un simple calcul.

ça fait longtemps que les gens critiquent les problèmes de maths sur ChatGPT, les autres IA ont fait un effort, OpenAI non c’est ça à retenir !!!

Aux dernières nouvelles ces IA ont pour but de satisfaire au max les demandes des utilisateurs même quand ça concerne les maths !

tu devrais revoir les benchs alors parce que Claude 4 sans Réflexion écrase GPT-5 avec réflexion … Claude 4.1 Opus est vraiment le best en tout !

Et puis … est-ce important les benchs ? le retour utilisateur ça compte plus heh ?

GPT-5 est la meilleure pub pour les concurrents … Altman a créé une hype énorme et ça va causer sa perte !

Résumé

:man_facepalming:

Ah cool une prédiction. Rendez vous dans 6 mois ? Un an ? Je mets un rappel.

——

Le truc de « URSSAF » est très bien vu mais un peu connu maintenant.

https://youtube.com/shorts/7pQrMAekdn4?si=9kPialGQs1VjiAOq

Tiens test fait aujourd’hui

Marrant non ?

Oui c’est pas le même prompt :sweat_smile:

Non. Parce que comme expliqué dans le post de @Hanandano , quand un service de chat IA te fait des maths, ce n’est généralement pas via le LLM, mais via d’autres modèles…

Tu confonds en fait « chat IA » et LLM. Le LLM, c’est le modèle de language, il fait de la prédiction statistique pour déterminer ce qu’il doit mettre après chaque token, et avec en plus une petite part d’aléatoire. Ça ne peut pas faire correctement des maths. Parce que conceptuellement, le simple fait que ça soit un mélange de probabilité et d’aléatoire et incompatible avec la rigueur nécessaire pour faire des maths.

Le « chat IA », ça c’est une application qui propose une interface de discussion à un humain et essaye de répondre à ses questions. Elle le fait avec un LLM, mais elle peut aussi intégrer d’autres outils pour mieux répondre à certaines questions.

Le fait qu’un « chat IA » sache répondre correctement à des questions de maths ne prouve pas que le LLM sous-jacent sait le faire. Parce que ça peut avoir été délégué à un autre service.

C’est comme pour la génération d’images. Si tu demandes à Chat GPT ou à Le Chat de te générer une image, c’est pas GPT 5 ou Mistral Large qui va te générer une image. L’application de chat détecte que la question est une demande de génération d’image, et elle la fait traiter par un modèle de génération d’image au lieu de la faire traiter à son LLM par défaut.

Cette distinction entre le modèle et l’application est vraiment une distinction fondamentale pour quiconque essaye de comprendre un minimum tous ces outils IA…

2 « J'aime »

Je confonds rien du tout, c’est toi qui a passé trop de temps avec le troll et ta capacité de raisonnement a baissé.

J’ai bien été clair

et qui te dit que GPT-5 se base que sur les LLM pour répondre ??? … ChatGPT intègre plusieurs outils, en quoi c’est un problème d’intégrer celui-là ?

les gens utilisent ChatGPT pas GPT-5 ou autre modèle donc tu demandes une réponse il te la donne peu importe comment …

On a beau trouver des justificatifs ça change pas le résultat !

Moi je l’ai toujours dit de toute façon, ne l’utilisez pas pour apprendre la grammaire ou les maths !!!

Mais bon, ton pote est prêt à se contredire juste pour ne pas me donner raison !

Il faut vraiment que tu comprennes que les gens ne sont pas comme toi, ils cherchent pas comment marche une IA ils l’utilisent point barre et ils payent cher pour ça !

Donc tu demandes aux gens de comprendre comment une IA marche … c’est l’IA qui doit comprendre comment les humains marchent ce n’est pas ça le but heh ?

Ou comment confirmer que tu confonds bien LLM et chat IA :rofl:

GPT-5, c’est un LLM. ChatGPT c’est un chat IA.

Chat GPT utilise plusieurs outils pour répondre à tes questions, dont le LLM GPT-5.

Or ce qui a été mis à jour vers une nouvelle version beaucoup plus performante cette semaine, ce n’est pas chat l’application Chat GPT, c’est le modèle GPT…

Oui, mais quand tu essayes d’analyser leur comportement, leurs forces et leur faiblesses, la moindre des choses c’est d’essayer d’abord de comprendre un minimum les choses…

Critiquer un nouveau LLM parce qu’il ne sait pas faire des maths, c’est juste prouver qu’on ne comprend pas ce dont on parle.

Tu peux critiquer le fait que Chat GPT ne sait pas répondre aussi bien que d’autres chat IA sur des questions de maths, ça oui. Mais reprocher à GPT-5 de ne pas répondre correctement, c’est juste faire preuve d’incompréhension.

C’est un peu comme dire que le moteur d’une Ferrari est mauvais parce que tu n’arrives pas à charger un meuble dans le coffre…

Et peut-être aussi que si les gens essayaient de comprendre un minimum plutôt que d’utiliser bêtement n’importe quel outil, ils arrêteraient justement d’essayer d’utiliser un tournevis pour planter un clou… Ça fait des années qu’on a des modèles spécialisés en maths qui marchent très bien, comme Wolframe, pourquoi vouloir à tout prix utiliser un chat IA pour faire des maths ?

C’est au final du même niveau que les gens qui pleurent parce qu’un chat IA se plante quand ils lui demandent l’heure ou la météo… Ça parait un peu moins ridicule, parce que c’est des maths, mais conceptuellement, ça l’est en fait tout autant.

2 « J'aime »

Olala c’est tellement bas de ta part … T’aurais pu deviner que je voulais dire ChatGPT parce qu’un LLM ne répond pas c’est ChatGPT qui fourni les réponses !

Mais bon ta soif d’avoir raison à tout pris est plus importante qu’essayer de comprendre ce que l’autre veut dire heh ?

T’es plus intelligent que l’autre, l’autre a besoin de combler son manque d’intelligence, toi non … alors arrête avec ce jeu parce que tu vas devenir un Troll malgré toi.

PS : Et tu peux arrêter de parler aux gens comme s’ils étaient des enfants et que t’es le seul à savoir tout ? … dès qu’un mec parle d’un problème concernant l’IA tu lui balances tes phrases toutes faites, personne ne sait parler à une IA sauf toi on l’a compris.

Moi j’adore comment la cécité sélective fonctionne full throttle la.

Il a très bien vu que changer la question change la réponse et que le chat se plante comme GPT. Mais comme à chaque fois l’Amimamide est tellement coincé dans son biais d’engagement… c’est triste vraiment.

—-

Alors que t’as raison l’amimamide sur ce point. Les LLM c’est pas dingue dingue pour faire des maths (pour la grammaire je ne sais pas et je veux bien te l’accorder) même si je distinguerais « apprendre » et « faire » mais ok. Bref j’espère que t’as des réserves dans ton bunker là. Bisous

1 « J'aime »

Arrête de te comporter comme tel peut être ?

Juste une idée.

Et Matt ne prétend pas tout savoir. Cite nous ne serait ce qu’une occurrence où il dit ça (même de manière indirecte). Allez. Courage.

Oh punaise encore la psychologie de comptoir a la MHC. C’est une marotte c’est pas possible…

1 « J'aime »

Je sors le popcorn … :popcorn:

2 « J'aime »

Un à la fois et pas tous les deux en même temps … j’admire cette bienveillance :wink:

Un peu de lecture :