Commentaires : Une puissance brute de 22 TFLOPs pour la future GeForce RTX 4060 Ti

Les prochaines cartes graphiques de NVIDIA auront-elles suffisamment de pêche pour convaincre les amateurs de jeu vidéo ?

« 8 Go de GDDR6 sur un bus 128-bit »

J’ai mal lu ? Ou bien il y a une faute ? Non, ça doit être une erreur…

Les partenaires proposeront surement des cartes à 12Go

22 Tflop, le double de la ps5 !!!

Pour la RTX 4060, c’est de trop : 96 bit et 6 Go de RAM aurait suffit pour du 1080p.
Cette carte aurait d’ailleurs gagné à s’appeler RTX 4050 ou RTX 4050 Ti.

Pour la RTX 4060 Ti, c’est limite, mais ça passera très bien en 1080p. Le ratio bande passante sur puissance de calcul est le même que sur la RTX 4070Ti, donc elle sera légèrement bridé par la bande passante en 4K.

Je suis en plein dilemme perso.
J’ai l’intention ferme de prendre un bel Alienware Aurora R15, mais j’avoue hésiter entre la 4090 et la 4080.
J’ai un bel écran mais c’est un acer predator Z35 donc c’est en uwqhd et je n’en changerait pas de sitôt.
Là, l’aurora, ça me tiendra pour 10 à 15 ans, donc j’avoue hésiter énormément surtout que +600€, c’est pas une paille.
Ça me trotte dans la tête et je n’arrive ps à me décider. D’un côté je lis que la 4090 est plus pour les développeurs graphistes et demi pro.
Perso c’est que pour les jeux vidéos en exclusivité sinon bureautique ultra inintéressant.
Et en même temps, je lis que la différence est notable et que bon, bah les ventes sont mauvaises pour la 80 et que tout le monde va vers la 4090.

Donc voilà, est ce que dans 10 ans, la différence entre une 4080 et une 4090 vaudra quelque chose… ça m’interroge.

Oui mais les flops ne peuvent pas du tout être comparés.
Depuis les 3000, nvidia a doublé le nombre d’unités par SM. Ce qui fait que les cartes sont beaucoup moins puissantes à flops equivalents avec les 2000.

Par exemple la 3080 a 3x plus de flops que la 2080 mais seulement 60-70% de perf en plus.

En « equivalent rdna2 » (archi ps5), cette carte n’a pas 2 fois plus de flops mais plutôt 30 à 40% de plus, max

8Go, même en 1080p, ça va commencer à devenir limite avec les jeux à venir.
C’est déjà le cas avec Hogwart Legacy en RT, avec 8Go, la RAM sature et ça stutter.

Ensuite pour le bus, 128bits ça fait très peu quand on reste sur de la GDDR6. La bande passante se casse la gueule face à la 3060 Ti, ce qui peut énormément freiner les perfs dans certains cas.

je reste sur mon idée que la 4070 sera le sweetspot de cette génération. La majorité des joueurs jouent en 1080p / 1440p et ce sera largement suffisant pour en profiter de manière correcte

Oui, c’est vrai. Il faut 12 Go pour de la pérennité en 1080p.

D’autant plus que le prix d’une puce de 2 Go (16 Gb) GDDR6 est d’environ 7 $ (https://www.dramexchange.com/). On est à moins de 50 € les 12 Go.

La RTX 4090 a 70% (16384 coeurs vs 9728) de coeurs en plus que la RTX 4080. L’écart entre les 2 est exagéré.

Pour info, l’écart entre la RTX 3090 Ti et la RTX 3080 était de 23% seulement et l’écart entre la RTX 3090 Ti et la RTX 3070 était de 83%.

Il manque actuellement dans la gamme une RTX 4080 Ti avec 12288 coeurs pour combler l’écart important qu’il y a entre la RTX 4080 et la RTX 4090.

Maintenant, 10 ans pour une carte graphique, c’est de trop. Il est préférable de la changer tous les 4 ans (2 cycles environ) pour avoir les dernières innovation tech tout en ne perdant pas trop d’argent lors du changement. Pour ça, il faut cibler le milieu de gamme.

ça c’est ton point de vue. Je le comprend très bien mais c’est selon tes critères.
Moi, j’en suis actuellement à un i7 2600K avec une GTX 970, je ne suis pas « malheureux ».
Je sais changer un PC et son matériel, mais je n’en ai rigoureusement plus du tout envie.
Du coup, je vois l’alienware, moi ça me va et si le prix est élevé, il est rentabilisé sur cette durée de vie.
Je n’ai absolument aucune intention ni aucune envie de changer de CG tous les 4 ans, pour moi, j’ai toujours trouvé ça complètement fou et un gaspillage de faire ça.

J’entend ce que tu dis sur le nombre de coeurs, mais tout ne se joue pas là dessus dans la vie.
comme le dit Emmanuel, la majorité des joueurs jouent en 1080p/1440p, c’est actuellement mon cas avec mon 35p en UWQHD.

De ce que j’ai lu, l’intérêt n’est pas immense sur du 1440p. Mais le problème et c’est d’où mon intervention, les infos sont contradictoires entre ceux qui disent qu’il y’a un genre de goulot d’etranglement où finalement l’apport d’une 4090 est minime sur ces configs et qu’il est d’avantage destiné à des pros qu’à des joueurs.
et d’autres qui disent que sisi c’est destiné aux joueurs et que le gain vaut le cout.

C’est pas évident.
De toute façon pour Alienware, c’est soit une config 4080 soit 4090 avec un écart de 600€.
de la même façon, j’ai le choix entre un i7 13700KF ou un i9 13700KF où finalement le i9 est globalement inutile dans l’application gaming que je souhaite et qui est plus destiné à des pros.

Entendons nous bien: je ne critique pas ton choix et ta pensée sur le cycle de vie du matériel.
J’exprime ici seulement « mon choix », c’est à dire 10 à 15 ans. ça m’a très bien réussi jusque là, je continue ainsi. J’investit un budget conséquent pour un objectif conséquent, ce n’est pas négociable ou à discuter.
L’hésitation porte sur « l’intéret » 4080 VS 4090.
qu’il y’ait 70% de coeurs en plus, sur le papier y’a rien à redire.
Si en pratique, y’a 0 différences parce que je suis sur un écran 1440p par exemple, tu comprends le dilemne. et le gain en plus, je sais qu’il n’est pas de 70% sur un jeu mais au mieux de 30% voir 15%.
Maintenant, cette différence n’est pas non plus négligeable et se paie. Maiiiissss tout comme un i9 n’est pas destiné vraiment aux gaming, je me dis que peut etre le 4090 n’est pas non plus destiné au grand public mais plutôt aux professionnels, je ne sais pas !

1 « J'aime »

Suite à plusieurs prises d’informations, la 4090 n’est pas destinée aux joueurs.
Du moins c’est plus pour les créateurs de contenus graphistes etc… ou pour jouer à des jeux spécifiques comme flight simulator etc…
Mais pour purement « jouer », ça n’a pas d’intérêt et il faut se tourner vers la 4080.

Surtout si c’est pour jouer sur du uwqhd

Bon, ouf, je m’économise 600€ ^^