Commentaires : Rédaction, calcul... Les abonnés à ChatGPT vont avoir accès à une version de GPT-4 Turbo encore plus performante

GPT-4 Turbo est encore meilleur grâce à une mise à jour que vient de déployer OpenAI. ChatGPT excellera maintenant un peu plus dans plusieurs domaines d’importance.

Rédaction, calcul… Les abonnés à ChatGPT vont avoir accès à une version de GPT-4

Parlons en des calculs de GPT-4 … Copilot GPT-4 =>

Copilot GPT-4

Bonsoir,
Pas compris ! dsl

Quel arrondi ? 328,90% = 3.289 pile, ce n’est pas infini.
Arrondi ça fait 52 045 pas 52 074.

Je n’ai pas Python, mais j’ai Excel :

Excel

Enfin si il y’a une explication je veux bien la prendre.
Merci

Salut,

Je n’ai rien a essayer car tu as pour l’instant parlé mais rien prouvé.
Les seules preuves sont c’elles que j’ai mis en capture et elles prouvent ce que j’ai dis.

Un conseil :
Update ton python, en attendant de voir ton calcul manuel qui donne :
15 824 x 3.289 = 52 073,536

On attend …
Je pense qu’on ne le verra pas.

Hum eh bien c’est super mais pas autant transcandant qu’on nous l’avait annonce ; peut etre que la techno - bien que fabuleuse et jeune qu’elle soit - est deja mature!

On va dire qu’il donne raison à la Calculette et a Excel surtout.

Pourquoi « un peu mieux » puisqu’il répond juste.

Je ne sais pas.

Je ne sais pas faire ça.

Perso ça me dépasse qu’un ordinateur fasse encore des calculs faux.

Pas de souci :wink:, au moins vous avez répondu.
Je pensais honnêtement que vous me faisiez marcher …

Sur des entiers, un ordinateur fait toujours des calculs exact (limité par contre à des nombres entiers ne dépassant pas une certaine valeur, sauf à utiliser une lib spécialisée dans les calculs sur les grands nombres). Si ça ne l’est pas, c’est un bug, ce n’est pas le fonctionnement normal.

Par contre en flottants, par conception, ça fait par défaut obligatoirement des arrondis à chaque étape du calcul (un nombre flottant ayant une précision limitée), ce qui peut donner quelques résultats pouvant parfois sembler aberrants, et d’autant plus flagrants que la formule de calcul est complexe (puisque potentiellement à chaque étape tu augmentes l’erreur).

Par exemple, dans Excel, il ne sera pas rare qu’en faisant des simple additions et soustractions sur des nombres à 2 décimales te retrouves avec un résultat avec des valeurs non nulles au delà de la 10ème décimale (pour éviter de propager et amplifier l’erreur au fil des calculs, il est préférable d’arrondir explicitement à 2 décimales les opérations dont le résultat n’est pas censé en avoir plus…).

Voir cet article sur le sujet : How to deal with Floating-Point Rounding Error | by Nisal Pubudu | Medium

Il y a des libs pour faire du calcul flottant avec plus de précision, mais c’est beaucoup plus lent, donc utilisé que quand c’est absolument nécessaire.

Après, pour le cas particulier de l’erreur de calcul de ChatGPT que tu as repéré, ce n’est pas un problème de précision des calculs flottants. Ce n’est même sans doute pas une erreur de calcul, au sens « technique » du terme. C’est probablement plutôt une erreur du modèle qui n’interprète pas correctement le calcul et effectue au final un calcul différent de celui qui lui a été demandé. Il faut garder à l’esprit qu’à la base, les maths ne font pas partie de ce que fait un LLM (qui ne fait que de la prédiction statistique… et en intégrant une petit part d’aléatoire). Lui faire faire des maths, c’est un « hack », via une surcouche qui va tenter de détecter les opérations mathématiques et les faire traiter par un composant dédié. Ou pire, parfois ce n’est en fait même pas géré du tout, et c’est la réponse par génération statistique qui est donnée, ce qui forcément donne des résultats mauvais.

Je pense que c’est le cas avec GPT 3.5 d’ailleurs, parce que si je lui demande plusieurs fois de suite 15824*3289 (donc des entiers, ce qui théoriquement permet un calcul exact à un ordinateur), j’obtiens à chaque fois un résultat différent et plus ou moins faux. Mais avec quand même des points communs qui me font penser qu’on est bien dans la génération statistique avec une petite part d’aléa : tous les résultats se terminent par 36.

Ok.

Il n’est vraiment pas très doué pour détecter un calcul alors, ç’est pourtant pas ce qui me parait des plus compliqué mais bon, je ne bosse pas là-dedans.

Il serait temps qu’ils se penchent un peu sur la question, tu vas me dire qu’ils le font déjà.
J’espère, parce que pour le moment ça fait un peu tâche !

Merci à toi pour ces explications.

La technologie à la base de ChatGPT est un modèle de langage, c’est à dire une technologie qui établit la suite de mots la plus probable (parmi une gigantesque base de conaissances) en fonction ce qu’a saisi l’utilisateur. Donc les calculs à proprement parler, il sait pas faire (il met bout a bout les calculs selon ce qu’on lui a appris) !

Chatgpt 4 fait appel à une bibliothèque de calculs lorsque c’est nécessaire.
C’était pas le cas avec got 3.5 il me semble.