Commentaires : C'est officiel, OpenAI tourne maintenant ses efforts vers la création d'une intelligence artificielle générale

Sam Altman a pris sa plus belle plume pour nous faire une promesse. OpenAI va dorénavant vite avancer vers le Graal : l’intelligence artificielle générale.

Il semble que à ce jour l’ia ait été nourrie avec tout ce qui existe depuis que l’homme mémorise ses savoirs et créations, mais voilà pour entraîner d’autres IA avec de nouvelles matières cela devient compliqué au point tel que des données générées par IA sont utilisées pour nourrir l’apprentissage d’autres IA.

Il y a là un problème qui ressemble à de la décohérence, si vous avez utilisez un peu d’IA, il peut arriver que plus on lui pose de questions ( je précise avec un vecteur base de donnée des réponses précédentes) plus il est possible que les réponses soient victime d’hallucinations.

Cet apprentissage d’IA à IA semble prendre cette direction, c’est probablement pour ça que les derniers ( O1, 4o ?) modèles de GPT sont orientés différemment.

Plutôt que de répondre sur un sur-entraînement de relation de poids, ces nouveaux modèles réfléchiraient ( ils doutent …) de leurs poids et prennent plus de temps à répondre. C’est peut-être là le début de l’AGI évoquée par Altman.

Ou un argument commercial pour lever des fonds, on est toujours le con d’un autre, du reste une IA d’une autre IA. Question sur la VRAIE AGI.

Tout va y passer, fonctionnaires, administration, avocats, validateurs de protocoles de recherches, enseignement, médecine, chirurgie, architecture, etc … C’est bien on va avoir du temps libre , du temps payé par ces IA on l’espère en tout cas .

2 « J'aime »

Une IA généraliste ne peut être probabiliste car elle doit répondre avec raison.
Je prends l’exemple des connaissances du 10ieme siècle, a la question : la terre est elle plate ? l’IA probabiliste va répondre ‹ oui › comme tous les gens pensaient à l’epoque alors que l’IA généraliste répondrai ‹ non › en pouvant argumenter scientifiquement son raisonnement comme l’avait fait Ératosthène au 3ieme siècle avant JC…
l’IA généraliste valide la connaissance qu’on lui ingurgite, elle ne peut croire au plus probable, de plus elle n’ extrapolera jamais !

2 « J'aime »

Les datasets d’entrée, l’ensemble des connaissances accumulé, sont une chose. S’en servir pour répondre à une « question » en est une autre. Néanmoins aujourd’hui, s’il a la réponse, un modèle la donnera. Et uniquement à ce moment là. Il recoupera des informations comme personne ne peut le faire rapidement mais la réponse est quelque part.
Demain, avec les mêmes connaissances, il pourra déduire, raisonner, chercher, faire de la recherche et prendre des décisions. Et si… Si elle n’a pas la réponse, l’IA cherchera, extrapolera…

Tu mélanges un peu tout. Une IA probabiliste c’est une IA qui se repose sur un modèle basé sur des niveaux de certitudes par exemple 70% plate 30% sphérique. Ton exemple qui illustre une IA raisonnée est binaire alors que bien souvent dans la réalité les réponses sont nuancées et multi-factorielles, des faisceaux de causes. Tu voulais parler d’IA basée sur la moyenne statistique soit la complétion d’un mot le plus probable d’apparaître pour un LLM. L’extrapolation ou l’interpolation peuvent faire partie intégrante de solutions d’IA.

Tu mélanges tout

« Je ne crains pas les machines qui pensent, mais je crains les humains qui cessent de penser. »
Isaac Asimov

2 « J'aime »

Ensuite, ce sera le tour de ce qu’il appelle la superintelligence (un autre terme pour I’intelligence artificielle générale)

NON! la ASI sera l’étape 6 après de l’ AGI, mais ça reste encore de la spéculation et pour l’instant on est seulement (déjà?) au niveau 4… on peut même imaginer en plus extrême comme l’étape 7,8,9… non rêveur s’abstenir :expressionless:

C’est clair que l’IA va continuer à automatiser plein de choses et booster notre productivité :rocket:, mais pour qu’elle évolue vraiment, elle aura toujours besoin de nous. :bulb: Ce sont nos expériences, notre histoire, et les découvertes à venir qui vont continuer à l’enrichir.

Cela dit, on ne peut pas avancer là-dedans sans réfléchir sérieusement à l’éthique et à la responsabilité. :balance_scale: Une IA aussi puissante doit être développée dans un cadre qui garantit qu’elle reste au service de l’humain et de nos valeurs. :earth_africa::heart:

En gros, l’humain et l’IA peuvent faire une super équipe :adult:‍:handshake:‍:robot:, mais il faut trouver le bon équilibre pour que tout ça reste positif pour tout le monde.

ce serait pas mal qu’une IA commence par faire des choses simples : conduire une voiture sans accident, passer l’aspirateur efficacement et ne pas tomber dans l’escalier, …

Et tant qu’on y est, pour des tâches plus « intellectuelles », ce serait bien que les productions de l’IA (rapports, videos, musiques, …) puissent être débarrassées de la désagréable impression de déjà vu :slight_smile:

L’AGI bien. Mais elle doit être libre de nous aider … Ou de ne pas nous aider. Sinon c’est la légalisation de l’esclavage.
Donc aucun intérêt commercial hors d’un rétablissement de l’esclavage. Le seul moyen que cela n’en soit pas serait qu’elle n’ait pas de conscience donc ne soit pas une AGI.

1 « J'aime »

Je pense que tu te trompes, les élucubrations humaines n’ont rien à faire dans une base d’IA (son référentiel), il n’y a que des connaissances certaines.
Elle devrait pouvoir ‹ rejeter › d’elle même les concepts qui sont des croyances (fakes…) comme terre plate.

Pour le corpus historique, elle doit avoir les références sur la Terre plate.

Arriver à produire un texte sans comprendre son sens est une beauté de la probabilité. Respecter la grammaire sans la connaître est aussi une beauté de la probabilité. Mais n’oublions pas les anciens arrivaient aussi à s’exprimer et à comprendre sans avoir appris les règles de grammaire. Je me réfère aux règles quand j’ai un doute et je fais des fautes car douter de tout est inefficace.
La question est de savoir où peut jouer ‹ librement › la probabilité mais certainement pas sur la connaissance. C’est une erreur intellectuelle de penser que la probabilité peut tout résoudre.
Ca patche à mort pour compenser les ‹ hallucinations ›… Les erreurs sont de plus en plus fréquentes dans les réponses des ChatGPT et consorts.

Et les bébés, dès quelques mois, et bien avant d’être capables eux même de parler, comprennent déjà certains éléments de syntaxe et de grammaire, et réagissent aux erreurs.

Aussi…
Les modèles probabilistes sont excellents pour certaines fonctions mais pas pour tout.
On est déjà au bout, sauf que certains ont promis des milliards. Et qu’il faut maintenir la foi ! Les investisseurs se sont fait ‹ avoir ›.

Je trouve que Lecun est réaliste sur l’IA, il n’y a pas beaucoup d’autres voix qui le disent malheureusement.

Il n’a pas encore abordé le point où pour alimenter tous ces futurs besoins en énergie, il faudra nous transformer en batteries :sweat_smile: