Commentaires : NVIDIA : une fuite confirme avant l'heure des performances de folie furieuse pour la RTX 3080

Grâce au média chinois TecLab, qui n’a visiblement pas respecté l’embargo fixé par NVIDIA, la RTX 3080 dévoile ses performances avec un peu d’avance. La puce, attendue le 17 septembre prochain, serait notamment capable de surclasser la RTX 2080 Ti.

2 « J'aime »

Deux remarques :

  1. Ces résultats s’annoncent décevants. On nous avait promis une 3080 deux fois plus puissante qu’une 2080. Là on en est loin quand même.

  2. La consommation de 500 W de la configuration complète est raisonnable ? Ou alors c’est juste que ça fait des années qu’on pousse les gens (par ce qu’on teste, ce qu’on mets en avant) à achter des alimentations de 750 W, voir 1000 ou 1500 W pour des configurations qui demandaient très rarement plus que 400 W ? Parce que 500 W dans l’absolu c’est pas mal. Un processeur moderne comme le Ryzen 3700x, c’est environ 100 W, maximum 120 W avec le SOC entier. Tu ajoutes à ça quelques ventilateurs, la carte-mère, la RAM tu atteints peut-être 200 W. Plus une carte graphique à environ 200 W, tu arrives à 400 W-500 W maximum. Les gens devraient juste réfléchir et sortir leur calculette 5 minutes parfois.

3 « J'aime »

Une alimentation a son meilleur rendement et des tensions plus stables, de souvenir, entre 50 et 80% de charge, donc pour une consommation de 500W vaut mieux prendre une 750W.

Clair qu’une 1500w ou même 1000w, c’est trop.

2 « J'aime »

Attention ! Nvidia a annoncé que la RTX 3080 est 2 fois plus performante que la RTX 2080 pas que la RTX 2080 Super ! Ils sont malins ils ont sauté une génération.

1 « J'aime »

+1 sur les PSU souvent sur-dimenssionnées.
J’utilise en général Outervision.com PSU calculator et je tient souvent vers 430W.

Sauf avec cette 3080, effectivement une config avec un 3700X et ce GPU demanderait 522W, soit une alim 572W pour avoir de la marge.
La même config avec une 2080Super tirerait 450W, soit une alim de 500W.
Cette 3080 a l’air gourmande :frowning:

Salut ! Tu es sûr de cette info ? Justement, de mémoire, c’était le fait d’avoir une alimentation à moitié utilisée qui faisait baisser le rendement. J’aimerais bien avoir une source fiable, tu en aurais une ? Je trouve aucune information.

Ça change que de 10 % à peine au final. On reste loin du compte, là on parle plus de 60 %.

Oh merci beaucoup ! Mais quelle est la source stp ?

« En moyenne, la RTX 3080 arrivait à battre de 62 % la RTX 2080 SUPER sur les jeux ne supportant pas le DLSS » ==> De mémoire le TGP de la 2080S est de 200W et celui de la 3080 de 320W, soit une inflation équivalente. Donc si ces données sont exactes, cela voudrait dire que le saut de gravure n’aura pas apporté grand chose de ce coté. C’est bien dommage car griller 500W pour une simple activité ludique, c’est pour moi une grosse barrière psychologique (et là je parle pour le PC au complet, pas juste la carte graphique) !

1 « J'aime »

Bon faut quand même faire gaffe avec ces calculateurs. Beaucoup augmentent considérablement le besoin, souvent ceux des sites qui vendent des alimentations, comme par hasard.

D’autres font de mauvais calcul. J’ai remarqué que beaucoup se trompent et utilisent le TDP des processeurs au lieu de la consommation, ce qui peut être dangereusement plus bas. Exemple avec un Ryzen 3700x, qui ne consommerait que 65 W. Sauf que c’est TDP, sa consommation peut grimper à 120 W.

Attention à ne pas confondre le TDP et la consommation électrique, ces deux valeurs n’ont absolument aucun rapport. Enfin si, mais vague et peu consistant.

La consommation c’est le courant tiré par la carte, le TDP uniquement sa dissipation thermique. Je pense que c’est la consommation électrique qui est pertinente dans ce cas, et elle reste à vérifier avec les tests. Mais si effectivement les cartes consomment 50 % d’électricité en plus, ça signifie que Nvidia aura menti pour la deuxième fois, après avoir menti sur la puissance des cartes.

Quant aux 500 W, il faut les relativiser je pense. Tu utilises déjà pas 500 W sur tous les jeux, ni en permanence. Entre les zones plus calmes, les menus du jeu, tu es pas constamment à fond. Encore moins si tu limites les FPS aux hertz de ton écran. Imaginons que tu joues 3 heures par jours, environ 280 jours par année, ça te fait 420 kWh par année, soit environ 63€ de facture sur l’année. Je connais des hobbies plus cher personnellement. Certes tu rajoutes le prix de la config et les jeux, mais bon, y a pire que la consommation quoi.

https://www.plugloadsolutions.com/80PlusPowerSupplies.aspx#

1 « J'aime »

Quand on voit les tarif annoncé pour la génération 30xx en terme de rapport perfomance prix , c’est absolument impressionant. vivement la sortie

Il faut comprendre un truc. Une alimentation poussée à 70% durera moins longtemps qu’une poussée à 50-40.

En plus de la gravure, est ce qu’il y en terme d’architecture pas une évolution ?

Oui et il ne faut pas confondre le TDP (dissipation de la puce grapique) et le TGP (dissipation de la carte complète). Faute de mieux, et en attendant plus de tests, on doit se contenter des TGP officiels.

Tout à fait, mais ce n’est pas une question financière, mais plutôt la consommation totale si tout le monde s’y met; il se dit (je n’ai pas vérifié si cela est plausible), qu’il faut pas moins de 10 réacteurs nucléaires !?! Bref bien loin du mantra « l’énergie est notre avenir, économisons là » :roll_eyes:

1 « J'aime »

c’est ce que je me disais y a encore peu de temps, sauf que que maintenant ce n’est plus vrai, de la même facon c’est pareil sur des variateurs moteurs, aprés sur du produit chinois basic c’est surement encore le cas !

Il y a bien une évolution, mais il semble que le bilan soit très limité en terme d’efficacité énergétique (sous réserves que les données sur lesquelles je base mon raisonnement soient exactes).