À chaque génération de cartes graphiques, la puissance s’envole, mais la consommation également. Que nous réserve l’avenir ?
AMD est à côté de la plaque avec leurs 700 Watts pour 2025, personne ne voudra d’une carte graphique qui fasse un bruit de sèche-cheveux pour être refroidie !!
Énergie et ressources sont infinies alors tout va pour le mieux.
Ce n’est qu’une projection et qui ne concerne certainement que le flagship de la série. Comme tu le dis personne ne voudra d’une carte graphique impossible à refroidir sauf quelques enthousiastes/frimeurs ou des pros prêts à mettre le prix dans un refroidissement de compétition et ça AMD doit bien le savoir.
Raisonnement complètement débile, une 6700 met à la rue une PS5/Xbox X
Donc ils peuvent largement se concentrer sur la consommation.
Ou alors optimiser les jeux des systèmes comme le FSR pour tous les jeux, bref, il y a des jeux pas terribles qui demandent bien plus qu’un crysis 1.
Plus le matos est puissants plus ca pompe de ressources certains jeux ou soft, on n’optimise pas car il y a de la puissance dans les PC des gens de toute manière.
Et encore ils indiquent juste le TDP, c’est pas le TGP qui lui est encore plus monstrueux
Ca ne marche pas comme ça.
Un petit GPU de 100 W peut très bien chauffer plus qu’un gros GPU de 500 W. Ce qui compte, c’est la capacité à dissiper, ainsi que le ratio surface / TDP.
Sur une carte graphique de bureau, on peut compter une limite de 0,9 W / mm² pour un refroidissement conventionnel.
Exemple :
- (2009) NVIDIA GeForce GTS 250 : 150 W / 260 mm² = 0,58 W / mm²
- (2012) NVIDIA GeForce GTX 680 : 195 W / 294 mm² = 0,66 W / mm²
- GTX 1050 Ti : 75 W / 132 mm² = 0,57 W / mm²
- RTX 3070Ti : 290 W / 392 mm² = 0,74 W / mm²
- (2022) RTX 3090Ti : 450 W / 628 mm² = 0,72 W / mm²
- (2012) AMD Radeon HD 7770 : 80 W / 123 mm² = 0,65 W / mm²
- AMD Radeon HD 7970 : 250 W / 352 mm² = 0,71 W / mm²
- AMD Radeon RX 580 : 185 W / 232 mm² = 0,8 W / mm²
- (2019) AMD Radeon RX 5700 XT : 225 W / 251 mm² = 0,9 W /mm²
- (2022) AMD Radeon RX 6950 XT = 335 W / 520 mm² = 0,64 W / mm²
La RX 5700 XT (d’origine) de 225 W fait plus de bruit que la RTX 3090Ti FE de 450 W par exemple.
Sinon, dans le futur, ça pourrai hypothétiquement donner jusqu’à 700 W pour un GPU de 800 mm² (genre un chiplet de 4 x 200 mm²).
pollueur payeur, le fabricant et le propriétaire
C’est une bonne idée en apparence, sauf un GPU qui permet de faire 50 fois plus de calcul dans un même temps imparti qu’un autre mais qui consommerai 10 fois plus serait quand même 5 fois plus efficace puisqu’il consommerai 5 fois moins d’énergie pour faire le même calcul. Donc, le GPU a « faible consommation apparente » nuirait plus à la société que le GPU à « forte consommation apparente ». Pourquoi moins le taxer alors ?
Vivement les CG optiques !
Sauf que là tu ne tiens compte que de l’échange thermique entre le GPU et son radiateur.
Le niveau de bruit, il dépend lui de l’échange thermique entre l’air et le radiateur. Et là y a pas de miracle, si on double la quantité d’énergie à dissiper au niveau du radiateur, soit on augmente drastiquement la taille du radiateur (mais on est déjà à des tailles énormes pour les radiateurs de cartes graphiques actuelles), soit on augmente la vitesse de l’air dans le radiateur, et ça ça se fait difficilement sans augmenter le bruit…
utiliser et maîtriser en masse le voxel plutôt que le pixel couplé au Ray tracing, moins de mémoire moins de puissance moins de chauffe moins de consommation plus de stabilité. c’est le processeur qui travaille plus mais la chauffe est bien mieux maîtrisé que sur les cg. et oui aux dev de mieux maîtriser leur environnement. quand on voit ruby sur les anciennes démo technologiques d’amd fourni par rhinofx il y a 10 ans qui maitrise bien mieux la qualité graphique que dans certains jeux d’aujourd’hui. (merci far cry 6 par exemple)
Y’a juste à regarder Horizon Forbidden West pour comprendre qu’il n’y a pas besoin d’engloutir 700w pour avoir une « config » avec laquelle se faire plaisir autant au niveau des yeux que du jeu.
Mais bon, actuellement c’est encore et toujours à qui a la plus grosse pour au final une optimisation dégueulasse et un gâchis monstrueux.
Troll à moitier activé:
Apple a réussi à faire des chips M1 et M2 qui mette à la rue toutes les autres CG en terme de perfs pour une consommation très inférieure.
Donc aux ingénieurs de chez AMD et nVidia d’arriver à faire pareil
L’efficacité énergétique, c’est une excuse bidon qui peut aussi servir à justifier une carte graphique 2000 Watts en 2035
oui et non car ce n’est pas avoir les 60 ou 90 premiers FPS qui pompent mais les derniers c’est comme un OC on va gagner 9% dans certains cas pour une conso 2 a 3 fois superieur.
et le M1 ou M2 reste inférieur en puissance a des rtx 3000 de laptop qui sont plus économe que les desktop.
Ce qui m’afflige c’est qu’il y a 10ans avec un vieux laptop de 13ans j’avais firefox zen sur mon pc je pouvais bosser, maintenant il galère juste à ouvrir firefox, je sais bien qu’on a rajouté des technos, mais on a des choses tellement lourdes maintenant avec énormément de choses qui ne sont pas utiles
Comme pour les soft audio, les versions crack demande moins de puissance que les versions légale, car elles n’ont pas les systèmes anti crack. Bref, on optimise plus les choses.
@info01 : Quand je vois qu’une 3060 met 16mn pour le rendering d’une scène sous Blender et qu’un Mac Pro M1 Max 32GB met +60mn, j’ai presque envie de d’ouvrir une cagnotte.
(Source : techgage)
Petit calculs de coins de table, à confirmer :
pour un joueur jouant une moyenne de 4H par jour absolument tous les jours :
700430 = 84 kWh /mois
soit … 560 kms en voiture électrique
et plus de 100 bornes en thermique
Au final, s’enfermer dans un monde virtuel avec ce genre de matos (et je n’ai pas compté la conso du proc) est plus consommateur d’énergie primaire que de prendre une caisse pour aller loin.
C’est un des rares cas où c’est le cas !
Nous devrions influer sur les constructeurs pour réclamer moins de conso pour ces devices, ou effectivement imposer un « capping » thermique.
(1) : Mais ce n’est pas ce qui compte en premier.
C’est ce qui explique l’écart de puissance entre par exemple la AMD Radeon HD 7770 GE de 80 W et la RTX 3090Ti FE de 450 W.
Tu ne pourra pas avoir un GPU de 120 mm² qui dissipe 450 W avec un air-cooling classique. Ca ne s’est pas encore vu jusqu’à présent.
La AMD Radeon HD 7770 GE, tu peut l’overclocker de 20% pour arriver à 110 ou 120 W, mais pas plus, même si tu change de radiateur en prenant le tout meilleur (genre triple slot avec 3 ventilos), tu arrivera à beaucoup moins de 40% pour atteindre péniblement 150 W.