Commentaires : Test NVIDIA GeForce RTX 5090 : performances démesurées, consommation débridée avec Blackwell

La GeForce RTX 5090, nouvelle vitrine technologique de NVIDIA, promet de redéfinir les standards du gaming PC et de la création. Avec l’architecture révolutionnaire Blackwell et la puissance combinée du DLSS 4 et du Neural Rendering, NVIDIA mise plus que jamais sur l’intelligence artificielle pour offrir des performances inégalées. Mais ces promesses se concrétisent-elles dans la réalité ?

jouer en 4K à Cyberpunk 2077 avec le path tracing activé, toutes les options au maximum à près de 300 images par seconde

Le kiff que cela doit être :+1:t2:
Pour avoir cela sur les consoles, il faudra attendre la PlayStation 10 :scream:

2 « J'aime »

Mouais… entre le prix beaucoup plus élevé, les perfs hors FG un peu meilleures mais très loin du passage 3090-4090, conso absurde, franchement une vaste blague.

4 « J'aime »

Le passage 3090-4090 était exceptionnel.

6 « J'aime »

Avec autant de points négatifs (Augmentation de 27% de plus qu’une 4090 qui pompe déjà trop), la note de 9 n’est vraiment pas méritée c’est incohérent.
Les perfs sont là ok, mais c’est complètement aberrant côté perfs/watt/prix.

7 « J'aime »

Je suis d’accord. Techniquement on est sur un 9 mais cette carte n’a pas de sens pour un gamer en 2025. L’acheter c’est juste pour crâner sur les réseaux ou ne pas savoir ou mettre son argent

3 « J'aime »

Pour jouer oui, on pourrait considérer que c’est une blague, mais toutes ces séries X90 sont la limite haute des cartes mainstream avec les cartes Pro dont les prix sont souvent absurdes.
Cette 5090 avec 32G de Vram est une bête de course et évitera d’acheter une Tesla qui vaut 6000 euros, donc pour de l’IA, ou pour une station de travail developpeur de Jeux et/ou 3d, c’est le top Prix/fonctionnalités/performance !

1 « J'aime »

Ouais, mais ça reste des GPU « grand publique ». Déjà que les 3090 commençaient déjà le foutage de gueule à 1500€, là c’est vraiment n’importe quoi.

Autant entre la 3090 et la 4090, t’avais un gap de perfs énorme et une augmentation « légère », là t’as toujours une bonne grosse augmentation de prix et légère augmentation de perf en gardant la même litho. Tout est mis sur le MFG, franchement honteux.

3 « J'aime »

Ça fait longtemps que nVidia vise officiellement aussi les pro avec les GeForce, en particulier haut de gamme.

Et c’est encore plus vrai avec cette série 5000 : n’oublions pas que le seul chiffre de performances qui a été donné lors de leur présentation, c’est les performances pour l’IA, ce qui cible quand même essentiellement les pros.

2 « J'aime »

Moi j’attends les tests des 5060 pour le commun des mortels.

1 « J'aime »

LTT a testé les Tensor, et clairement y a un gap énorme

1 « J'aime »

Oui mais ça reste la gamme grand public, même si à 2500 balles c’est évident qu’à part les youtubers, ça vise les pros, mais c’est la gamme grand public.

Performances énorme… jusqu’à ce que tu coupe le DLSS hein :D. Parce qu’en natif sans DLSS, voilà voilà.

1 « J'aime »

Dommage il n’y a pas la latence SANS Frame Generation pour comparer.

1 « J'aime »

Ouais pas fou fou tout ça ! Le gap et beaucoup moins flagrant que de la gen 3 à 4 … Tant mieux pour ma 4090 . NVIDIA aller à dans deux ans ou plus pour changer … :rofl::rofl::wink: Et dans deux on aura de nouveau des articles un peu partout pour nous faire croire que la gen d avant est obsolète et se fait éclater ! lol :sweat_smile:

NVIDIA ne bride pas les GTX quand des tâches spécifiques sont exécutés dessus ? Genre minage, IA et autre ? Justement pour forcer les non joueurs a acheter les GPU dédiés .

Pour le minage, oui, ils l’ont fait, depuis les GeForce 3000 LHR.

Pour le reste, non. Et surtout pas l’IA, comme je l’ai déjà rappelé plus haut, les performances en IA sont même les seules performances chiffrées mises en avant lors de la conférence de présentation des GeForce 5000…

Vraiment, aujourd’hui ils visent aussi les pros avec les GeForce, dont ceux qui font de l’IA, il y a plein de choses qui le prouvent sur leur site :

  • la catégorie de produits dans laquelle on trouve les GeForce desktop, c’est « Gaming et création »,
  • dans les descriptifs, ils font régulièrement référence à « création », « créativité », etc,
  • l’IA est également bien mise en avant.

Il y a même une page dédiée aux fonctionnalités « Studio » de ces cartes, sur laquelle on peut notamment voir des benchs sous Blender et Autodesk Arnold :

Et si tu vas dans les téléchargements de drivers, y a carrément deux drivers différents pour les GeForce, un « GeForce Game Ready » plutôt optimisé jeu, un « NVIDIA Studio » plutôt optimisé applications pro (bon y a sans doute pas des masses de différences entre les deux, à part sur les utilitaires fournis avec le driver) :

La gamme purement pro (les RTX tout court, pas les GeForce RTX), c’est seulement pour les pros les plus exigeants, ceux qui ont besoin de drivers certifiés par les éditeurs de logiciels de 3D pro et qui travaillent sur des projets trèèèès gourmands en mémoire, et avec un meilleur rapport performances/consommation. Par exemple une RTX 6000 a le double de mémoire par rapport à une GeForce RTX 4090 et fait grosso modo 10% de mieux en performances brutes, avec une consommation maximale de seulement 300W… Je suppose (mais j’ai pas plus creusé le sujet, donc à prendre avec des grosses pincettes) que pour arriver à ça ils ont mis plus d’unités de calcul mais avec des fréquences plus faibles.

1 « J'aime »

Les constructeurs ne donnent plus les Tflops qu’en 32 BITS, il y a une raison, même AMD a suivi cette tendance NVIDIA, le bridage des calculs 64 bits avec il y a plus de 10 ans 50% des perf en 64bits, puis au fur et à mesure, 1/3, 1/4 1/8 1/16, la full précision 64 bits étant réservée aux Quadro et autres Tesla via le pilotes. ( par contre apparaissent les FP16 FP8 et même FP4 maintenant)
Les dernieres cartes grands publics qui proposaient un 64bit pas trop bridé étaient les GCN de la série 7000 si je me souviens bien offraient 1/3 en 64 bits, dans du blender ça se sentait. Mais aujourd hui il y a des moteurs de rendu spécifiques qui finalement ont l’air de bien performer, je n’ai plus de point de comparaison pour voir si cette différence 32/64 se fait encore sentir aujourd’hui.

Non, celles qui ont des grosses perfs en double, ce sont des puces spécifiques.

Entre une RTX 6000 Ada et une GeForce RTX 4090, y a strictement le même écart de performances en simple précision qu’en double précision : 91 en simple et 1.4 en double pour la RTX 6000, 83 TFLOPS en simple et 1.3 en double pour la GeForce RTX 4090…

Les dernières Quadro à avoir un rapport 2 entre le simple et le double, c’était la GV100 en 2018. Et ce n’était pas une différence de drivers à l’époque, les GV100 avaient une architecture spécifique (Volta), elles n’utilisaient pas la même archi que les GeForce à l’époque, qui étaient sur architecture Pascal (il y a eu des non Quadro en GV100, les Titan V, et elles avaient bien le ratio de 2 entre simple et double, bien que dans la gamme gaming/création). Et les Quadro basées sur Pascal avaient elles le même ratio de 32 que les GeForce Pascal.

Et c’est pareil avec les Tesla, celles qui ont une archi spécifique (par exemple les H100 en archi Grace Hopper et le V100 en archi Volta) gardent un ratio de 2 entre le simple et le double, mais celles qui utilisent la même archi que les GeForce (par exemple les L40) ont le même ratio que les GeForce de même génération (une L40 par exemple, c’est 91 en simple, 1.4 en double, exactement comme une RTX 6000 et 10% de plus sur les deux valeurs qu’une GeForce RTX 4090).

Donc c’est bien pour des raisons matérielles que le ratio de performances entre simple et double précision a fortement augmenté, ce n’est pas juste le driver.

2 « J'aime »

J’attends les tests de la 5070 qui sera bien plus à la porté des mortel et qui sera top en 4k60fps + ray tracing.