Dans une interview accordée à Strictly VC, le P.-D.G. d’OpenAI, Sam Altman, a voulu faire taire les rumeurs quant aux capacités supposées de GPT-4, le successeur du modèle de langage GPT-3.
Bah j’ai l’impression que beaucoup pensent que ce genre d’IA répond véritablement à des questions, dont elle comprendrait le sens profond, ils vont forcement etre deçu tot ou tard.
La question qu’il faudrait se poser c’est avec quelles données vont ils nourrir ces IA , car à cette vitesse là il n’y aura bientôt plus rien à mettre en entrée.
Et seconde question, c’est combien de garde fou faudra-t-il mettre pour éviter que l’IA devienne une psychopathe ? Car l’IA va apprendre à partir d’internet, mais internet n’est pas un modèle de bienséance… Donc si l’IA se base sur le niveau très bas de 90% des commentaires des forums pour apprendre à débattre…
Exactement. C’est une autre façon d’utiliser un moteur de recherche. Enfin, surtout de voir la pensée dominante dans un domaine.
Tout ce que je lié sur GPT4 et qui sont les prédictions les plus réalistes. L’objectif n’est pas d’augmenter le nombre de neurones, mais d’unifier les différentes IA créé par la compagnie. Comme ça, l’amélioration futur sera plus simple s’il n’y a pas 3 IA distinctes à gérer.
En ce moment la compagnie a une IA pour le texte GPT 3 et 3.5, une qui fait image to text et text to image et la dernière c’est pour la vidéo ( qui n’est pas très connu et moins concluant).
Ajouter le traitement des images, ce n’est pas stupide non plus. De un l’IA est abouti. Mais surtout, ça permettrait de traiter les courriels et de lire des plans et les schémas
« GPT-4 sera doté de 100 trillions de paramètres »
billions plutôt
Peut-être a-t-il demandé à GPT3 quelle serait la meilleure stratégie pour dévoiler GPT4… ? ;-D
Pas du tout. ChatGPT ne fait qu’essayer de prévoir à chaque mot d’une phrase quel serait le meilleur mot à coller derrière. Il n’y a pas de pensée construisant l’ensemble, aucune réflexion guidant l’écrit; juste une répétition de ce qui a été vu dans les exemples d’entraînement. C’est impressionnant, mais ça peut donner un mélange de plusieurs sources de texte donnant à la fin un texte racontant une connerie.
Avec 100 trillions de paramètres, le gouffre en calculs que cela va représenter pour faire tourner GPT-4, c’est de l’exascale qu’il va falloir derrière…
C’est plus de la prédiction, comme dit dans un autre commentaire.
En fait, ça me rappelle beaucoup des trucs que j’étudiais un peu à la fac, il y a 15 ans (En plus évolué).
Je n’ai jamais écrit que GPT avait une réflexion ou pensait. Seulement qu’il répondait par rapport aux résultats qu’il trouve. La pensée dominante vient des gens qui écrivent et génèrent le résultat. En tout cas c’est ce que j’avais remarqué posant des questions sur des sujets spécifiques. Ça reprenait les idées qui ressortaient le plus souvent dans les moteurs de recherches.
Mais oui, selon la façon dont tu poses les questions et l’enchainement des questions, il y a souvent contradiction des écrits précédents.
Chat GPT est dangereux car l’ia annonce des choses comme vrai or il peut se tromper, et si on lui pose une question c’est que l’on ne connaît pas la réponse et on sera instruit en erreur.
Regardez par vous même si l’on check avec des sujets simple à vérifier alors on voit le gros soucis, demandez lui de faire des rimes, vous verrez.
Raté magnifiquement pour la première.
Par contre, factuellement, « Does that sentence end with the word apple? », se termine bien par apple.
« Does the previous sentence… » aurait sûrement donné une réponse différente.
Si GPT ne comprend pas les phrases, il ne les interprète pas non plus comme ferai le cerveau humain.
En fait vous parlez à des esclaves en Afrique.
laisse tomber je l’ai déjà signalé avec lien explicatif sur leur 1er article qui parle de trillions, mais ils n’en ont pas tenu compte. Ils préfèrent rester dans l’erreur et véhiculer cette erreur…
« That sentence » ne peut représenter « this sentence ». Ça ne peut pas être là phrase actuelle.
Je trouve cela amusant de voir les gens s’emballer ou au contraire jeter le bébé avec l’eau du bain.
N’y a t-il pas de juste milieu? Doit-on se gausser car l’IA fait des erreurs? A vous croire les humains ne font aucune erreurs et ont de meilleurs réponses à toutes les questions.
Désolé mais je trouve qu’en l’état le résultat est déjà assez bluffant et permet d’avoir des réponses assez cohérentes sur bien des sujets.
Je me demande si dans la population qui est anti et qui se moque des IA il n’y aurait pas en réalité une certaine crainte de perdre son emploi à plus ou moins long terme?
N’oublions pas que nous ne sommes qu’au début d’une longue aventure et que cela ne pourra que progresser. En l’état, elle est déjà suffisamment performante pour écrire des lettres de motivations, des lettres de tous les jours (impots, propriétaire… en citant des textes de lois)…
Wait and see…
Ah !
Billions c’est déjà milliards. Trillions c’est 1000 milliards
1000 milliards c’est billion en français.