Commentaires : GeForce RTX 4090 : limite de puissance ou sous-voltage, la conso s'effondre, les perfs baissent de 8%

Deux techniques pour réduire drastiquement la consommation de la RTX 4090 de NVIDIA sans trop perdre en performances.

Quant on paye 2000€ à 2500€ sa carte graphique :roll_eyes:, il est peu probable que se soit pour brider ses performances à l’arrivée, même de ±10%.

3 « J'aime »

Tu peux toujours remettre la consommation maximale le jour où elle montre ses limites.

3 « J'aime »

Franchement, qui va aller surveiller sa conso électrique quand il aura cramé 2500 balles dans la CG … et avoir changé l’alimentation du PC pour une Gold-99-qui-fait-le-café à prix d’or ?

ce qui est curieux, c’est qu’habituellement en électricité, plus de tension = moins de pertes joules pour la même intensité de service.
là on à à peu près la même intensité et efficacité pour moins d’effet joule malgré baisse de voltage.

Sujet de réflexion sur les alimentations électriques : Pourquoi, dans les datacenters, les blocs d’alimentation ne sont ils pas externalisés des bare-metal ?

(pour moi, c’est rhétorique)

" la consommation s’établit plutôt autour de 370, voire 380 Watts"
… c’est toujours 100 à 200 Watts de trop … :disappointed_relieved:

Merci Clubic de remettre les points sur les i.

En effet la 4090 est une excellente carte avec un excellent rapport performance/prix et un excellent rapport performance/consommation.

Les chiffres sont là, n’en déplaisent à tous ceux qui ralent contre un produit pour la simple raison qu’ils sont jaloux de ne pas pouvoir se le payer.

2 « J'aime »

« ils sont jaloux de ne pas pouvoir se le payer »
il y a pouvoir et vouloir. Je cherche plus le bon rapport performance / prix / utilisation que le max perf pour max prix qui sera aussi vite dépassé par une autre CG encore plus puissante pour encore plus cher. Ma 3060 fait tourner tout ce qu’il me faut en réglage max sur du full HD, donc une 4090 ne serait pas un excellent rapport performance / prix pour mon utilisation

3 « J'aime »

Cela montre bien que l’on est dans l’irrationnel : pour avoir le ‘King of the Hill’ et gagner qq pourcents (qui ne se verront pas à l’usage), on arrive pratiquement à doubler la consommation. Approche lamentable des constructeurs (concerne aussi les CPU) avec cette course stupide qui amènera des PC qui consommeront plus que des serveurs dans un datacenter.

2 « J'aime »

D’un point de vue du TDP vs fréquence => rien d’étonnant.

Si je prends la source, on a bien, à stabilité constante :

fréquences TDP Mesuré TDP Calculé
Battlegrounds 2,85 402
2,46 288 299,5
Lostark 2,85 293
2,46 215 218,3
Forza Horizon 5 2,85 275
2,46 193 204,9
Spider-Man 2,85 293
2,46 212 218,3
CyberPunk 2,85 353
2,46 253 263

TDP(f1) environ= TDP(f2) * (f1/f2)²

Exemple : 402 * (2,46/2,85)² environ= 299 W pour 288 W mesuré.

Les fabricant de GPU connaissent cette loi du TDP vs fréquence, elle est utilisé sur les GPU mobile.

Moi-même, je l’utilise pour prédire les perfs des GPU Mobile :

Concernant les performances, il faut voir soit du coté de la bande passante mémoire graphique, soit du CPU qui limite les performances. On a un phénomène de compression des performances. Ca sera la même chose sur les RX 7900.

Il faudrait tester la mémoire graphique à la baisse pour voir si les perfs s’écroulent ou non. Si c’est le cas, ça veux dire que ces cartes sont limitées par la mémoire graphique (bus et fréquence vram). Idem pour le CPU.

Comme 3DMark Time Spy Extreme ne limite pas beaucoup au niveau du CPU, la chute de perf sera plus grande (au lieu d’avoir 8% de perte, on aura 15% ou plus).

La carte consommera que ce qu’il faut pour fonctionner, elle sera à fond sur CP2077, mais sur des jeux moins gourmand, ça peut facilement descendre à 250 voir 100W.

Le constat est le même pour le minage de crypto, on a une bien meilleur efficience à 225W de conso qu’à 450.

« pour la simple raison qu’ils sont jaloux de ne pas pouvoir se le payer. »

toujours ce même argument ridicule des que tu critiques quelque chose alors c’est parce que tu es jaloux de la personne, ou du produit. Si les gens critiquent la génération 40 de Nvidia c’est tout simplement car ils ont doublé le prix de leurs produits juste pour augmenter leur marge sans autre justification. Ses même personnes (dont moi) pourraient se payer une 4080/4090 mais décident de ne pas le faire. De mon côté c’est simplement car je trouve ça sidérant de donner raison à Nvidia qui décide de doubler le prix de ses cartes sans aucune raison valable alors que la concurrence elle ne bouge pas ses prix.

Mais bon je dis ca sûrement car je suis jaloux… L’argument de ceux qui n’ont pas d’augments.

2 « J'aime »

Demain la baguette de pain passe à 5€, mais pourquoi pas, que ceux qui peuvent se la payer se l’achètent et les autres tant pis.

C’est sans limite si on prend cette voie.

2 « J'aime »

« jaloux de ne pas pouvoir se le payer »

Ce genre d’argument en dit surtout long sur ceux qui l’utilisent, parce qu’il fait fortement penser que ceux qui achètent quelque chose que d’autres trouvent trop cher en sont très fiers et s’imaginent être forcément jalousés et enviés

Et ça, c’est typique de ceux qui veulent avant tout paraître, et ces gens-là ne sont satisfaits de ce qu’ils ont que tant que d’autres les admirent et les envient…et lorsque ce n’est plus le cas, il n’y a plus de satisfaction et il leur faut alors trouver autre chose pour à nouveau susciter l’admiration et l’envie sans lesquelles ils ne peuvent pas se sentir bien.

4 « J'aime »

J’ai regardé par quoi je pourrais remplacer ma 750ti sur mon htpc intel gen4 avec lequel je joue aussi parfois.

La beta diablo4 tournait de façon très correcte mais la limite de faisait sentir (plutôt pas mal pour une plateforme désuète).

J’en arrive à la conclusion qu’une 2060 d’occasion serait parfaite.

Dans 20 ans j’essayerai peut-être une gen 40 !

1 « J'aime »

Donc tous les créateurs de contenus qui ont tous une et voire plusieurs RTX 4090 et qui disent qu’elle est trop chère, qu’elle consomme trop, qu’elle est trop grosse, qu’elle crame et surtout que c’est du gaspillage pour du gaming car elle va être bottleneck par le CPU, toutes ces personnes seraient des… jaloux ?

Bizarre car les personnes qui l’utilisent dans le domaine de la 3D en sont plus que contents.
Quand tu mets « à peine » 15h de calcul pour le rendering de 4’300 frames pour une anim sous Blender par rapport à une Quadro RTX A6000 qui met 10h de plus, ils en sont très loin de se plaindre. Sans parler du confort apporté dans les viewports et pour autre denoising.
De plus, elle reste sous pas mal de moteurs de rendus 3D 2x plus rapide qu’un sli de 3090 (Octane, Vray etc.).
Donc pour ces gens là, elle n’est ni trop grosse, ni trop chère, conso osef, qu’elle crame quand les gens ne savent pas connecter une broche (facile je sais), osef bis.
Quant au gaming, tu as tout à fait raison. C’est du gaspillage. Mais si certains ont les moyens, ils ont bien raison de se faire plaisir.

Sauf qu’encore une fois oui, mais non.

Non au mélange des cartes pros et des cartes gaming qui brouille les messages et les esprits et incitent les personnes manipulables à faire des dépenses inutiles.
Non à la banalisation des prix excessifs qui font que les personnes au budget simplement normal, n’ont le choix qu’entre du matériel déjà dépassé mais toujours cher et du matériel récent mais hors de prix.

Encourager cela ne peut qu’être dommageable pour tout le monde. Déjà Nvidia montre qu’il prend les clients pour des vaches à laits chaque jour un peu plus, le dernier en date étant la sortie de la RTX 3060 8Go. Imagine que, de guerre lasse, AMD jette l’éponge et que Nvidia reste libre de pratiquer les prix qu’il veut. Nous serons tous perdant, y compris les pro-Nvidia et comme souvent, nous l’aurons bien cherché.

Bah perso j’ai le neo G8 donc 4k 32 pouces 240hz. Donc perso j’ai j’en ai l’utilité.
Tu pourrais te permettre de prendre un 1440p que ta carte ferait le job avec le DLSS.