Commentaires : Sam Altman : « Je n’ai jamais vraiment pris au sérieux la théorie de l’Internet mort »

Sam Altman a d’abord ignoré la théorie de l’Internet mort. Puis, en 2025, il a remarqué la prolifération de comptes produits par des algorithmes sur X.

Et si encore il n’y avait que les réseaux sociaux. Comme le disait une autre actu, ça commence aussi à concerner les sites webs, et ça se développe extrêmement vite.

On va donc commencer à alimenter l’IA avec du contenu provenanr de l’IA, ce qui va renforcer tous leurs biais et nous camoufler complètement sous un volume insoutenable d’informations, qu’on devra demander à une IA de nous résumer.

Hâte de voir comment on va réagir à tout ça, parce que ça sera clairement pas tenable dans le temps.

Ce phénomène peut entraîner une autre plus grave pour la qualité des IA appelé effondrement des modèles (ou ce que j’appelle « consanguinité intellectuelle » des modèles) : Qu’est-ce que l’effondrement de modèle ? | IBM

Ca risque d’être un sacré défi (de garder du contenu de qualité pour l’IA) à l’avenir

1 « J'aime »

La seule issue possible à cela, c’est l’identification généralisée de la population. Sam Altman le sait ; il fait semblant de le découvrir, mais il a créé World ID précisément pour répondre à cette problématique. Il est en train d’implanter cette idée dans l’esprit des gens en jouant le candide.

1 « J'aime »

La schizophrénie ça se soigne bien de nos jours … mais ce mec ne veut pas du tout se soigner :frowning:

1 « J'aime »

Alors personnellement, je pense que c’est plutot une bonne chose si l’IA plafonne ou si elle se pete un peu la gueule. Je ne crois pas qu’on soit proche de l’intelligence général. Tous ces outils sont très forts quand ils sont spécialisés et c’est je pense comme ça qu’il faut les voir.

Rien à voir avec la théorie dont le sujet parle mais … D’après une étude récente ils ont remarqué que le modèle o3 d’OpenAI avait plus d’hallucinations que le modèle o1 et la réflexion qui est censé éviter les hallucinations et les erreurs en fait crée encore plus d’hallucinations.

Et si on ajoute l’entraînement d’un nouveau modèle basé sur l’ancien entraînement et plus on crée de nouveaux modèles plus l’IA va créer d’erreurs … c’est pas bon tout ça.

Sinon j’ai remarqué quelque chose de bizarre avec Claude Sonnet 4 (le meilleur modèle à mes yeux) … je sais pas s’ils ont fait des majs ces derniers temps mais il devient de plus en plus bête et il se rétracte presque constamment dès qu’on lui demande de confirmer sa réponse ou bien si on le contredit même quand on a tort :frowning:

Y a eu aussi un Downgrade sur les anciens modèles Sonnet 3.7 et 3.5, ils répondent de manière la plus brève possible sans trop s’attarder sur les explications.

Je crois qu’on a vraiment Atteint le sommet de l’avancée en matière de modèles … à partir de maintenant on aura des petites améliorations et basta

A moins de créer des modèles spécialisés dans certains domaines (genre vraiment entraînés pour ces domaines pas juste réglés, customisés pour ça) … on a pas fini de parler de l’IA … en mal :slight_smile: