Commentaires : L'IA, monstre énergétique ? Une requête ChatGPT dévore 10 fois plus d'énergie qu'une recherche Google!

L’IA a révolutionné beaucoup de tâches depuis maintenant deux ans. Mais elle a aussi un impact notable sur nos systèmes d’énergie.

En espérant vraiment que l’utilisation d’IA nous aidera à développer des solutions énergétiques sinon on est dans la m…

1 « J'aime »

bof on va concevoir des puces qui consomment moins

1 « J'aime »

Et par rapport à 10 articles identiques sur Clubic (Une requête sur ChatGPT demande 10 fois plus d'électricité qu'une recherche Google traditionnelle : l'IA, ce gouffre écologique) ?

4 « J'aime »

Question de doctrine et partenariats.

Altman veut 3000 milliards pour ses futurs data center AI, mais ils tournent sur des Tensors plus ou moins classiques.
Les puissances de calculs et performances ont beaucoup augmenté avec une doctine de « Scaling » à laquelle est attachée Altman.

Mais à ce jour les modèles deviennent trop volumineux et les contrôles de flux de données/poids sont contre productifs, c’est à dire que les modèles ont progressé très vite, mais que maintenant ils ne peuvent progresser que lentement et l’energie dépensée devient exponentielle.

L’ancien No2 de Openai Sutzkever, dit clairement que la période de scaling est finie, voire contre productive, la bulle pourrait péter.

Sauf que …

GROQ pas GROK, fondé par le créateur des tensors de google, a developpé une nouvelle puce analo/numerique, l’énergie perdue dans les sommes de contrôles/poids est divisée par 10 à 100 car en IA il ne serait pas nécessaire d’avoir 100% de précision, un bon 90% suffit, hors il semble que cette combinaison analo/numérique soit celle qui donne les meilleurs résultats, tout au moins pour l’inférence, si de telles puces remplaçaient l’intégralité des H100 et autre tensors dédiés à l’inférence, la conso serait divisée par 10 à 100.

Mais … Il n’est pas dit ce que valent ces puces pour l’apprentissage, a priori pas fantastique d’après le fondateur de GROQ.

On est face à un mur, ou plutôt une sorte de limite, comme l’approche de la division par 0, maintenant la méthode d’apprentissage telle qu’on la connaît va progresser très lentement à moins de nouvelles avancées et/ou RD qui la changerait.

Pour la dépense énergétique liée à l’inférence, il y a donc de la marge à condition de choisir la bonne tech.

Une requête CHATGPT m’évite 10 requêtes Google :thinking:

2 « J'aime »

Même si l’aspect consommation fois dix est problématique en soi, très problématique même, il n’est pas le seul souci.

Si l’IA consomme dix fois plus aujourd’hui, qu’en sera-t-il demain lorsqu’elles seront encore plus perfectionnées, encore plus riches de nouvelles données. Et si elle consomme dix fois plus, elle doit logiquement couter dix fois plus à l’usage, au moins.

Alors comment espère-t-on rendre rentable un tel gouffre à fric ? Pas étonnant qu’Altman aille faire du plat aux industries de l’armement.

Je lis pour l’instant assez bien sur ce sujet et dans ce sens… Mais je m’interroge franchement, que une requête consomme plus, je l’accepte volontiers. Mais est-ce que tous les usages d’IA réunis arrivent à une conso du même ordre que les serveurs dédiés de porno ? Non parce que bon, à force de flinguer pour le plaisir faut pe penser à objectiver… Je ne sais pas à quel pourcentage du trafic internet on en est aujourd’hui mais, je suis plutôt certain que cette industrie là consomme bien plus…

Et les émissions en CO2 de la Chine et de l’Inde, on en parle ?
« De quoi s’interroger sur la pertinence du modèle de développement de l’IA ! » : Moi, c’est sur la pertinence de cet article que je m’interroge…