Commentaires : Sur 3DMark, la GeForce RTX 4090 est presque deux fois plus puissante que la RTX 3090

Les cartes GeForce RTX de série 4000 s’annoncent nettement plus puissantes que la génération précédente.

« À cette date, la firme dirigée par Jen-Hsun Huang commercialisera la GeForce RTX 4090 et entamera le passage à la génération Lovelace. »

Ah … Ça sera clairement pas le cas. Les 2 générations vont cohabiter ensemble, puisque les cartes ampères prendront la place des RTX 4070 et 4060 !
Donc à ceux qui attendent les tests des 4080 et 4090 pour se faire une idée des perfs des 4070, c’est mort pour vous, il n’y aura pas de 4070 et 4060 avant treeeeeees treeeeeees longtemps !! Voir pas du tout si les stocks de cartes Ampère ne sont pas vidés ….

3 « J'aime »

Et réduire la consommation de ces cartes c’est prévu un jour???

6 « J'aime »

Le prix sera de 1€ par transistor… :relaxed:

6 « J'aime »

Je sais pas …. Quand tu vas avoir ta voiture électrique parce que mazout pas bien, tu vas demander aussi à ce que sa conso soit réduite pour quand tu vas la charger ?
Parce que ça, ça va plus bouffer qu’une 4090 sur un banc de bench !!

« sur la scène FireStrike Ultra, la RTX 4090 obtient 18 892 points. Elle signe un joli 25 256 points sur TimeSpy Extreme »
C’est pas raccord avec le screenshot juste au dessus (les valeurs FireStrike et TimeSpy sont interverties).
Ça a son importance car dans le paragraphe suivant 3 valeurs sont données pour la RTX3090Ti et du coup on ne sait plus à quel test il faut les assigner. Et donc l’affirmation que la carte est « 2x » plus performante sur l’un des 3 test est peut-être fausse ?

1 « J'aime »

Ces performances sont conformes à l’augmentation des caractéristiques du tableau, donc pas de surprise là-dessus…

Par contre, la consommation énergétique aurait dû être revue, par les temps qui courent…

3 « J'aime »

Tu n’as pas plus hors sujet comme comparaison ?

4 « J'aime »

Euh, c’est justement pour ça que je dis « entamera le passage à la génération Lovelace » : je ne parle pas d’un basculement immédiat et total.

1 « J'aime »

Je me fait pas de soucis pour la 4090 en terme de perf, ce sera un monstre, par contre en terme de conso il va falloir commencer à se demander si ça va pas trop loin. Pour les 4080 en revanche je pense que le gap sera nettement moins impressionnant et si leur prix restent aussi élevé ça pourrait assez mal se vendre, les enthousiaste iront vers les 4090 et en auront pour leur argent mais je ne vois pas qui est la cible des 4080

4e génération de tensor core ? Ce n’est pas plutôt la 3e génération ?

Apparement ces nouvelles rtx consommeront plus que la génération précédente !

1 « J'aime »

Un beanch c’est bien, faudra voire en situation réelle (jeu ou rendu 3D).

Et aussi la performance par W consommé, faire le double d’un 3090 pour le double de la consommation, c’est très moyens.

J’avais juste inversé en saisissant le texte, ça ne change rien au reste.

1 « J'aime »

Enfait, le gros problème niveau communication du côté de Nvidia c’est que contrairement aux générations précédentes, là en l’occurrence, ils n’ont absolument pas communiqué sur les 4070 et 4060 …
C’est le désert TOTAL et absolu. La Ou Nvidia avait vraiment appuyé sa com sur les 3080, 3070 et surtout 3060, là ils ont pas moufté mot ! Rien ! Comme si ces gammes n’existaient pas du tout.

Le taux de texture est X2 donc évidement que les perfs sont X2… Même pas de DP et HDMI de dernière génération et une consommation qui sera largement à plus de 650W.

t’as pensé à regarder le tableau donné dans l’article…?
exactement la même puissance que la 3090
(puissance en watts j’entends, pas puissance en perfs…)

1 « J'aime »

Alim de 850W minimum… ça devient dingo. Les gens gueulaient sur les rigs du cryptominage parce que ça générait une pénurie de CG et une consommation de fou en ces temps ‹ tendus › pour l’énergie. Et on se retrouve avec des CG qui vont défoncer les plafond énergétique.

1 « J'aime »

Tu peux pas comparer une machine gaming avec une alim de 850W avec un rig de minage équipé de 3 ou 4 alim de 2000W pour alimenter 10 GPU … (Pour les ptits rigs, parce que les gros à 30 ou 40 GPU, alors là, c’est la fête du slip !)

2 « J'aime »

Je suis le seul à trouver que ces performances sont correcte mais pas incroyable pour autant ? On a quand même 2,7x plus de transistors sur une architecture massivement parallèle, normalement, le gain devrait être plus élevé que ça.
Je pense que c’est en parti dû à la bande passante mémoire, mais pas seulement.

Je me suis amusé à regarder quelques chiffres concernant d’anciennes cartes graphiques, par exemple :

HD 5770 HD 5870 Ratio
Transistors (Milliards) 1,04 2,154 x 2,07
Surface die (mm²) 166 334 x 2,01
Performance globale (1920 x 1200) 1 1,7 x 1,7
Performance globale (2560 x 1600) 1 1,8 x 1,8
Perf 3DM06 avec CPU Score (1920 x 1200) 13250 20500 x 1,55
Perf 3DM06 avec CPU Score (2560 x 1600) 9950 16300 x 1,64

Ici par exemple, on voit que le doublement du nombre de transistors se traduit par 80% de perf en plus en 1600p.
Concernant le score de 3DMark 2006, si le test avait été fait avec GPU score uniquement, ça se serait traduit par 2x plus de perf (ici, dans le chiffre de 1,64x, le CPU est pris en compte et diminue le score global).


Errata : J’me suis trompé, cette carte graphique (RTX 4090) est pire que ce que je pensais initialement, j’ai oublié de prendre en compte la montée en fréquence (2,52 GHz au lieu de 1,86 GHz sur la RTX 3090Ti, soit +35% tout de même dû uniquement à TSMC et son 4 nm), ça ferait donc un « potentiel de performance théorique » de 3,65x pour un gain réel en pratique de 1,8x.

4 « J'aime »