NVIDIA, le géant de Santa Clara spécialiste de la production de processeurs graphiques, suit nécessairement le mouvement de l’IA. Son PDG, Jensen Huang, a récemment déclaré vouloir mettre cette technologie au service de la lutte contre le réchauffement climatique.
La réponse D(eux), Jean-Pierre.
Mais le fait que Nvidia soit très avancé en matière d’I.A et vendent des puces qui le font marcher n’a rien à voir avec ces déclarations, bien sur que non.
Et qu’il va bientôt falloir autant de puces, d’énergie et de pollution thermique pour faire marcher les différentes I.A qu’il n’en fallait pour miner le bitcoin et l’ether n’est pas un problème du tout.
Promouvoir l’IA pour vendre plus de cartes et se faire une bonne image d’ecolo…
L’écologie sale, ça me fait bien rire…
En proposant des cartes graphiques qui consomment 800W ?
Moins de 500W, ce qui est déjà beaucoup trop.
"Et qu’il va bientôt falloir autant de puces, d’énergie et de pollution thermique pour faire marcher les différentes I.A qu’il n’en fallait pour miner le bitcoin et l’ether "
On est pas du tout dans les mêmes ordres de grandeur, hors apprentissage, tu peux faire tourner une IA et son lexique de quelques gigas sur une machine standard ( voir les essais de Micode )
C’est seulement la phase d’entrainement qui est réellement dévoreuse de temps de travail, pas les « transactions », et t’as pas l’histoire du mode compétitif à outrance et de proof of waste derrière (sans compter les intérêts comparés des deux technos)
Content de savoir que la consommation ne sera pas la même que pour les cryptos, même si je demande tout de même à voir sur le long terme, lorsqu’il y en aura des dizaines en concurrence.
Quant à l’intérêt de l’I.A, là aussi j’attends de voir. Je ne dis pas qu’il n’y en pas mais pour l’instant, je vois surtout des usages néfastes: deep-fakes, fabrications et postage d’infox, triches aux contrôles continus et assez peu d’usages utiles. Peut être plus tard.
Attention aux usages Whaou du grand public qui bouffent toute la visibilité, et le reste.
Regarde Alpha Fold et les progrès dans les protéines, l’IA qui a reclassé un par un les cratères martiens en un week end (contre un siècle pour des hommes) ou encore ce genre de choses absolument incroyables :
En médecine, chimie, tous les domaines de la science l’IA va nous faire gagner des siècles, et sans exagérer , dans certains domaines, des millénaires, rien que ça.
Des chercheurs et des techniciens, partout, voient qu’ils peuvent entrainer une IA a faire de la reconnaissance et de la déduction en série, très simplement, un peu comme si tu avais une armée de stagiaire qui pouvaient mener chaque jour un siècle d’expérience.
On va pouvoir valider des choses et avoir des approches par dichotomies jugées infaisables en 2020.
Ensuite de ce que j’ai compris, on s’éclate sur des modèles génératifs qui en fait sont pas à la pointe de ce qui se fait, mais qui étaient matures pour impressionner la galerie, sauf qu’ils sont gloutons et « ringards » du point de vue de la recherche ( si j’en crois Yan LeCun et les retours de Micode sur LLAMA par exemple )
Les derniers algos semblent consommer plusieurs milliers de fois moins, au point de tourner sur un petit mac portable de façon convaincante :
A moyenne échéance l’IA va bouffer de l’énergie, surtout avant que les proc’ dédiés soient tous optimisés pour elle, parce qu’on va en mettre à toutes les sauces de manière désordonnée et inneficace, mais le service en retour va aussi être énorme, et les solutions (contrairement au bitcoin) vont se faire une guerre mortelle à l’optimisation, parce que la clé de la réactivité de l’IA c’est que la plus grande partie puisse tourner en local, sur le device.
Le mode distant est atrocement lent.
Et comme tout tu auras forcément la part de gaspillage/futilité qui occupera le devant de la scène.
Mais ça c’est plus propre à l’homme qu’à l’IA.
Il faut voir le « rendement ». Si les résultats permettent de réduire plus le CO2 que cela leur génération en a consommé, c’est bon. Mais bon, difficile à estimer correctement avant de lancer le process.
Ce qui m’interpelle dans l’article, c’est que l’on parle de réduire la taille des « cellules » alors que ça, c’est un problème de météorologie, mais pas vraiment de climatologie. Le gros soucis de la climatologie, ce sont toutes les rétroactions difficiles à estimer, surtout celles qui risquent de s’emballer, et les quelques variables inconnues ou oubliées, ce qui donne un système chaotique dur à simuler. Il faut alors une grosse capacité de calcul pour explorer les différentes hypothèses, et là l’IA peut être d’une grande aide à l’identification des critères, la discrimination des résultats et réduire les incertitudes.