La prochaine génération de cartes graphiques NVIDIA ne semble pas devoir consommer aussi considérablement que l’actuelle… mais plus malgré tout ?
Futur radiateur d’appoint!
600 watts de dissipation ça risque de chauffer pas mal
Autant qu’un micro onde quoi, ça va commencer à piquer niveau facture d’énergie.
Le gros des ventes etant probablement encore une fois sur les 60/70 j’ai surtout hâte de voir ce que donneront ces cartes là.
Sur les 80/90 les acheteurs ne sont pas à ça près.
Ca tombe bien, ici on ne parle pas de consommation énergétique.
Un micro-onde, une machine à café, un aspi, tu les utilisent ponctuellement (10-15mn). Là certains l’utiliseraient durant 4-6H d’affilé (en jeux et montages vidéo,… et le reste seulement en idle). Donc oui, les gens se plaignent qu’ils n’ont plus d’argent ou de l’écologie mais là ils n’allient pas la pensée à l’acte. De ce point de vue, j’apprécie la réaction d’AMD de ne plus entrer dans ce jeux pour les futures Radeon 8000. Après tout, c’est surtout du côté des devs de mieux d’optimiser leur jeux et aux joueurs d’arrêter cette course à kikialaplusgrosse.
Les gens qui achètent une carte graphique à 1500€ ou plus ne sont sans doute pas ceux qui se plaignent de pas avoir d’argent… Même s’il y a sans doute quelques exceptions.
Les rumeurs faisaient état de consommations et de chauffes monstrueuses sur la série des 4000 et ça ne fut pas du tout le cas.
Ce sera peut-être pareil pour la série 5000.
Wait and see.
Le problème c’est que la fabrication de ces cartes polluent déjà énormément. La consommation est délirante depuis trop longtemps.
On parle bien de W de dissipation, pas de consommation -_- certains ont du mal
C’est la même chose hein… Une carte graphique ne stocke pas d’énergie, grosso modo toute l’électricité qu’elle consomme est dissipée sous forme de chaleur. Et comme elle ne produit pas non plus d’énergie, toute la chaleur qui dissipe, c’est de l’énergie qui lui a été apportée sous une autre forme. Et la seule source d’énergie de la carte graphique, c’est justement l’électricité qu’elle consomme.
En tout rigueur, il y a quelques pouillèmes de la consommation qui partent sous forme de rayonnement électromagnétique et quelques pouillèmes d’énergie qui sont apportés par absorption de rayonnement électromagnétique, mais c’est totalement négligeable (on doit être sur des ordre des grandeurs inférieurs au mW) par rapport à ce qui est dissipé thermiquement.
T’as tout dit.
Bravo.
Ce serait bien de repartir vers une ou deux génération d’optimisation énergétique. 980TI : 250W de TDP. 1080Ti : 250W. 2080TI : 250W. 3080Ti : 350W. 4080TI : 400W.
Il faudrait, peut être, recommencer à rationnaliser la consommation des cartes. Entre les étés plus chauds (qui nécessitent avec un PC de passer de ventilateur à clim, bien plus énergivore), le cout de l’énergie qui augmente énormément dans beaucoup de pays (Toute l’UE mais pas que, les USA ont aussi eu de belles augmentations ces dernières années) et la consommation planché de la carte, c’est cout énormes rien qu’en énergie. Si ça continue, le frein à l’achat d’une carte ne sera pas son prix mais son coût d’exploitation.
C’est tellement absurde.
Et bien vous devriez.
C’est aujourd’hui plus que jamais un point important permettant de juger de l’efficacité d’une carte d’extension. Qui plus est le TDP est à lié à la consommation de la carte.
Je ne contracte pas