GPT-3, le modèle de langage développé par OpenAI sur lequel est fondé ChatGPT, verra bientôt son successeur, GPT-4, arriver sur le marché. Ses performances, déjà révolutionnaires, seront décuplées.
ChatGPT est super intéressant et passionnant, mais il est important de bien cerner son fonctionnement pour en tirer le meilleur parti et éviter les écueils.
Monsieur PHI a fait une vidéo très intéressante à ce sujet :
« Chut j’ai pété » lol, n’importe quoi ce bullshit, l’IA n’est pas encore mature pour ça, je dirais meme qu’elle ne le sera pas avant d’avoir une IA quantique, ce qui n’est pas prés d’arriver, comme « les voitures autonomes » d’ailleurs, peut être à la fin de ce siècle.
Pas encore de cerveau en vue…
La photo du tweet… comment dire
Comme toute machine sur son domaine elle ferra mieux que les humains.
Mais quel est son domaine ? C’est sûrement pas de la réflexion/création, c’est plus de la prédiction/corrélation depuis un ensemble de données vers un sous ensemble de données à complété.
Donc utile, devrait réduire grandement le travail pour pas mal de secteur, mais elle ne pourra pas tout faire.
Cette IA en rédigeant des prompts bien structuré permet déjà de répondre très rapidement et de façon plus qualitative à de nombreuses questions.
Imagine un SAV qui répond correctement aux demandes avec juste un humain qui surpervise (OUI|NON avant l’envoi).
Essaye un peu par toi-même et tu verras que ton commentaire n’est pas tout à fait juste. Cependant, tu as raison pour aller plus loin il faut du quantique. Mais à ce moment-là, on parlera de créer un film entier en image de synthèse, d’une IA qui est capable de développer le scénario et l’historique de chaque personnage.
Cette initiative sonne le glas pour beaucoup de job, que l’humain fait parfaitement " secrétaire/ sav ect…
et le fait que mon commentaire ne soit pas parfait, c’est ce qui fait le charme de l’être humain, comme le fait de me corriger ce qui resserre les liens entre nous, alors que si tout est parfait, c’est nous qui allons devenir des robots.
sauf que la quantique marche pas pareille, et ne fera pas ce que fait un PC classique, je vous conseille de regarder les conférences scientifiques dessus par des spécialistes dans le domaine.
Merci, mais pas la peine, je dirais qu’un pc « classique » c’est comme un mur qui te rends la balle, alors qu’avec une intelligence quantique on aura enfin une entité qui pense par elle meme.
Bref tous ceux qui bossent dans un service de support finiront au chômage.
Les boîtes ne vont pas attendre que ce soit parfaitement au point, on a déjà des chatbots totalement nuls qui se sont généralisés sur la plupart des sites. C’est parfois le parcourt du combattant pour savoir comment contacter un humain pour avoir enfin une vraie assistance.
On va pouvoir enfin remplacer les branquignoles du gouvernement par quelque chose de compétent qui t’explique avec des arguments scientifique pourquoi ceci plutôt que cela et ensuite démocratie direct et vote des citoyens par smartphone avec système biométrique inviolable. Non en fait je crois qu’ils vont s’accrocher au siège un moment et continuer le clientélisme au dépend du réalisme utile.
C est effectivement une solution, ca fait longtemps que j y pense, on aura juste a remplacer les députés par des ingénieurs spe iA et appliquer les directives votées
si on se fie au schéma du tweet 100.000.000.000.000 ce n’est pas 100 trillions mais 100 billions (le systeme anglais n’est pas le même qu’en français) milliard, billion, billiard, trillion
l’article clubic (écrit en fraçais) devrait donc parler en billion, pour traduire les trillions des articles anglais.
Vraiment pas mal cette video, elle explique bien le truc, merci pour le partage.
Bon ça passe de magique à quasi bidon du coup mais bon vaut mieux le savoir si on veut tenter de l’utiliser malgré tout.
100 trillions de paramètres et toujours pas un soupçon de conscience en vue pour l’IA, heureusement pour nous…
Attention, l’info selon laquelle GPT4 aurait 100 trillions de paramètres, contre 175 milliards pour la v3 est fausse… malgré toutes les infographies présentes sur Twitter. cf un article de thealgorithmicbridge point substack com
« Andrew Feldman, PDG de Cerebras, a déclaré à Wired que « d’après les discussions avec OpenAI, GPT-4 sera d’environ 100 trillions de paramètres ». Il n’est pas surprenant que les gens aient été enthousiastes après l’annonce de ces chiffres. Mais peu de temps après, Sam Altman, le PDG d’OpenAI, a démenti (lors d’une séance de questions réponses) la rumeur des 100 trillions de paramètres pour GPT-4. Il a demandé aux participants de ne pas partager l’information. (…) Il s’est avéré qu’elles étaient axées sur l’optimisation des données et du calcul plutôt que sur les paramètres (GPT-4 aurait à peu près la taille de GPT-3). Beaucoup moins flatteur que le modèle « 100 trillions de paramètres », mais plus raisonnable compte tenu de l’état de l’art. »
Les experts estiment plutôt que GPT4 serait entrainé sur une base de 1 trillion de paramètres, et pas 100.
tu vas voir ils vont militer pour l’interdire, « c’est une menace pour la démocratie » ou plutôt leur rente… encore que c’est certain que des véritables problèmes se poseront mais je pense surtout que ça va freiner dur pour pas se faire éjecter.
ChatGPT, je trouve ça super !
Mais j’ai trouvé un bug. A la question : 127 est il un nombre premier ?
Il m’a dit non et m’a donné 5 ou 6 nombres qui le divisent (le 11 je me rappelle)
J’ai mis un pouce désaprobateur et depuis, il a rectifié.
C’est super.
Y a un truc que je pige pas.
Ça parle de possibilité de traduction amélioré.
Ça veut dire que Google trad est à la ramasse complet ?