Existe-t-il réellement une bulle de l’intelligence artificielle ? Dario Amadei, PDG d’Anthropic, juge la situation plutôt complexe.
Oui, mais OpenAI et autres semblent bien s’entourer de financeurs (Microsoft) et hébergeurs et se disent « immunisés » contre les effets dévastateurs de l’éclatement de la bulle.
Oui, ils seront rachetés à bon compte…
Le truc, c’est que aucun produit IA rentable n’est encore sorti, et que les besoins en IA sont encore des projections plus que de la réalité (Ms, Google notamment « gonflent » le nombre de requêtes IA pour justifier les datacenters en en déclenchant au moindre click, 95% de ces requêtes ne mènent à rien) - et que même NVidia est soumis à risque, car ses concurrents permettent de faire de l’inférence pour moins cher.
Donc soit un produit sort rapidement qui justifie les investissements, soit … le marché sera créé artificiellement… Pour NVidia, plus la sortie d’un produit tarde, plus ils seront obsolètes - sauf s’ils sortent un produit meilleur marché.
Pour rappel, NVidia scande qu’il y a de la demande, mais ils n’ont jamais eu autant de stock. Donc soit ils gonflent les prix pour gonfler la valeur du stock, soit ils ne livrent pas. En plus, ils ont manifestement comptabilisé des clients qui n’ont pas encore payé dans leurs comptes…
Le soufflet retombe un peu, c’est normal, le marché doit se reconsolider pour retrouver du souffle, là c’est le sprint depuis 4 ans, et sans arriver beaucoup plus loin qu’il y a 2 ans.
Attention, je ne dis pas qu’il n’y a pas eu d’innovation, je dis qu’elles ne répondent pas à un besoin de masse/ou carrément n’ont pas assez de clients, soit parce que c’est trop cher, soit parce que ce n’est pas adapté.
Enfin, il y a toujours le gros problème de l’IA: c’est un changement de paradigme énorme: on paye des systèmes informatiques dont on sait qu’ils peuvent (et vont) se tromper.
Il y a de la concurrence, certes, mais aussi un certain optimisme des entreprises et commerciaux bien refroidit par les clients. Car dans de très nombreux cas, l’IA ne donne pas un avantage concurrentiel pour le moment. Et c’est une charge lourde.
Concernant NVIDIA, il semble que tu mélange deux marchés distincts : sur le marché grand public (GeForce), ils ont effectivement des stocks élevés et une demande en recul, ce qui les pousse à jouer sur les prix. Mais sur le marché professionnel (datacenters/IA), c’est une autre histoire : leurs GPU H100 et la nouvelle génération Blackwell (B100/H200) se vendent extrêmement bien, avec des revenus record portés par les géants du cloud. Rien qu’au dernier trimestre, la division datacenter a généré 35,6 milliards de dollars, soit plus de 80 % du chiffre d’affaires total, en hausse de près de 93 % sur un an. Le risque pour eux n’est donc pas l’absence de ventes, mais plutôt la dépendance à une demande IA encore incertaine et la concurrence sur l’inférence moins chère.
L’article indique que les entreprises peinent à utiliser l’automatisation, qui n’est finalement pas si fiable que ça.
NVIDIA, de son côté, conçoit des machines destinées à entraîner les grands modèles de langage (GPT, Copilot, etc.). Elles servent aussi dans la recherche scientifique (simulation climatique, modélisation moléculaire), dans la santé (conception de médicaments), ou encore pour créer des machines virtuelles très hautes performances pour graphistes. On les retrouve également en robotique, avec des solutions dédiées à la conduite autonome.
Ce n’est donc pas le même domaine. L’article que tu cites (intéressant au demeurant) ne montre que la partie émergée de l’iceberg. NVIDIA, Google et d’autres travaillent dans les profondeurs, là où se joue l’infrastructure de l’IA.
Citation
Les comptes présentés ne font pas la distinction, difficile de savoir. Et c’est aussi difficile de savoir à quel point les GPU sont réellement demandés et réellement livrés. Les annonces de NVidia concernant Oracle, OpenAI, Microsoft sont vagues et ne sont pas suivies d’annonces de livraison depuis un moment. Ce sont des promesses d’achat, sans aucune qu’il soit dévoilé s’ils sont fermes, réalisés, livrés…
Attention à ces annonces. Ce n’est pas Nvidia qui a inventé le principe, ce n’est pas nouveau.
Ce qui est sûr, c’est qu’au moins une partie de ces « commandes » pour des datacenters qui n’ont toujours pas un seul agglo de posé ont été comptabilisés dans les comptes (ce n’est pas forcément illégal), de même que NVidia a une forte augmentation de la valeur du stock et qu’en même temps elle allonge l’ammortissement (et donc baisse la dépréciation de ses vieux stocks - ce qui n’est pas illégal et pas non plus « faux » vu le nombre de cartes graphiques de plus de 6 ans qui font encore du jeu ou de l’IA).
Tout à fait. Mais cette infrastructure peine à émerger, notamment car la grosse demande qui devait soutenir la création des méga datacenters ne rapporte pas assez.
L’IA envahi un peu tout, mais plus elle envahi, moins elle semble convaincante: le déploiement tous azimuts sans aucune compétence la décrédibilise tous les jours (encore aujourd’hui, une IA m’a donné les résultat qu’un élu « a fait » aux élections de … 2026, une pub générée par IA me proposait les meilleurs prix sur les ryzen 8, un site devait me donner des commandes pour Windows et je me retrouve avec des commandes fausses sous Linux - et je n’ai fait qu’une heure d’ordi…)
J’ai bien compris ton angle, qui reprend des arguments qu’on voit souvent dans les débats sur la bulle IA — mais ce terrain-là ne m’intéresse pas vraiment. Mon point est surtout de distinguer ce qui relève de la projection et ce qui relève déjà d’usages réels, notamment entre le grand public et les datacenters.
Là où je ne te suis pas, c’est quand le doute sur les projections finit par ressembler à une remise en cause quasi globale de la réalité des ventes et des usages. On a déjà aujourd’hui des déploiements industriels massifs : Microsoft Azure, Google Cloud, Amazon AWS, Oracle, mais aussi des constructeurs comme Toyota, Mercedes-Benz ou Volvo pour la conduite autonome, l’optimisation et la recherche.
Donc oui, il faut rester vigilant sur les effets d’annonce et le marketing, mais on ne peut pas non plus réduire tout ça à des promesses sans substance. Le marché n’est ni totalement fictif, ni encore pleinement mûr : il est réel mais en construction, et c’est précisément cette phase intermédiaire qui crée à la fois des excès… et du scepticisme.
Je comprends bien. Je suis tout à fait d’accord sur le fait qu’il y a des usages avéré et fonctionnels de l’IA.
Simplement, pour le grand public et la majorité des sociétés, l’IA, c’est: le LLM et l’agentique « de base ». Or cette partie, que beaucoup mettent en avant dans leurs discours commerciaux, ne vaut pas le prix qu’ils voudraient qu’on y mette. On sent l’espoir des sociétés de nous « soutirer » de l’argent pour avancer sur la partie plus complexe en espérant faire le « pas décisif ».
Pour moi, l’IA paye le basculement des années 2010: en gros, avant 2000, l’informatique était tirée dans les innovations par l’industrie. A partir en gros de l’iphone, les innovations ont été tirées du grand public, et le marché grand public a trusté le message commercial.
Actuellement, il faudrait que le message commercial le plus entendu soit sur l’innovation et les produits de l’industrie/du médical, mais c’est tellement brouillé par le message « grand public » (copilot: encore une réponse ce matin où lors d’une recherche sur du powershell, il propose du bash et précise qu’il faudra « peut-être » l’adapter pour Windows - décrédibilise l’IA)
Ce n’est pas pour essayer de deviner une solution à ton problème mais je dirais comme ça que le bash a fait son chemin sur Windows avec le WSL ^^, Windows Subsystem for Linux. Par exemple, J’ouvre un terminal sur Windows et j’éxécute des commandes Linux : ls, pwd, etc…En somme c’est aussi du bash puisqu’il interprête les commandes Unix.
Je comprends ton point sur la sur-exposition du grand public et le bruit marketing autour des LLM, et je suis assez d’accord sur le fait que ça brouille la perception des usages plus structurants. En même temps, je vois aussi cette phase comme une étape imparfaite mais transitoire « d’acculturation ».
Quoi qu’il en soit, on verra bien comment tout ça se décante avec le temps — une éventuelle correction ferait sans doute partie du processus et serait saine.