Commentaires : GeForce RTX 50 : DLSS 4, Neural Rendering, pourquoi NVIDIA mise tout sur l'IA?

Cette année, l’IA était omniprésente au CES. Et l’un des acteurs majeurs de cette révolution moderne a présenté sa nouvelle génération de cartes graphiques, les GeForce RTX 50 sous la nouvelle architecture « Blackwell ». J’ai eu la chance d’assister à la keynote d’ouverture du salon, tenue par l’emblématique Jensen Huang, fondateur et CEO de NVIDIA. Il est temps d’admettre que le rendu traditionnel n’a plus autant d’importance, et que l’IA est bel et bien le futur.

Oui, il n’est plus possible d’augmenter le nombre de cuda cores, les calculs en virgule flottante sur 32 bits sont trop couteux en nombre de transistors, sans parler de la conso.
Les technos hardwares pour l’IA sont bien plus efficaces.

1 « J'aime »

Trop bien d’être mis en avant… mais je ne suis pas un boomer lol !
On se doute bien qu’en rendu traditionnel, on n’aura jamais la puissance de calcul pour de la 4k 120/240 même dans 10 ans pour les titres les plus gourmands de cette décennie à un rythme où la RTX xx90 prend 50% de puissance de calcul supplémentaire à la prochaine génération, les chiffres de départ étant trop bas et la conso/taille du die explose. A moins d’un changement de paradigme.
Mais ce pansement avec DLSS/FSR, qui sont là pour rester, ne va pas inciter les devs à optimiser leurs jeux non plus.

2 « J'aime »

Person depuis le DLSS 3.5 je l’active d’office. Autant auparavant il ne m’inspirait pas du tout, maintenant il serait stupide de s’en passer.
Je doute malgré tout de changer ma CG actuelle pour passer à une RTX 5000 me contentant d’un écran « 2K ».

Bonjour et merci pour l’article.
La ou je me perd un peu, c’est comment est géré la partie IA sur le plan hardware de la CG (ce qui justifierai l’achat de cette gen).
Pour rappel , à chaque époque sa techno et sa puce dediée à son calcul: physx, Ray tracing et DLSS , Qu’en est il de cette génération?

Personnellement, je suis fan de ces nouvelles technologies. Elles ont cependant une limite dans le JV : leur prise en charge.
Là où la puissance de calcul brute n’a besoin d’aucune implémentation pour une question de support, le DLSS 4 et le MFG ont besoin d’être pris en charge par le jeu. Ca implique que des jeux plus ou moins récents risquent de ne pas être concernés et surtout que l’achat de ce genre de cartes graphiques ne présument rien de leurs performances en jeu pour les jeux à venir : si pour une question de partenariat, le DLSS n’est pas supporté (comme c’est déjà arrivé, même si très très rare), les possesseurs l’auront dans l’os.

Désolé mais le rendu du visage et des lumières dessus n’est vraiment pas dingue.

L’IA c’est tellement l’avenir, que les GPU vont devenir des générateurs de Videos qui viendront texturer quelques éléments 3D, soit les shaders à vertex se réduiront à peau de chagrin, soit les unités de textures seront quasiment toutes des cores Cuda ou autre Npu.

car ca ne coute rien comparé à un UP de l’hardware !

Ah oui le futur c’est du flicking a foison, du flou omnipresent, du dithering de partout et sans parler des effets Droste et d’encodage video avec un bitrate bas.

ezgif-4-d7e57e8637

Pareil sur la dernière video ou ca clignote de partout et fait des hallucinations visuelles toutes droit sorties de Deep Dream de Google.

Si, pour pouvoir activer le Path Tracing à fond parce que même en 2K c’était compliqué pour une grosse carte graphique dans un jeu comme Cyberpunk, Black Myth Wukong ou Alan Wake 2.

C’est rappelé dans l’article : avec les Tensor Core (rappel : une carte Nvidia contient des CUDA Cores, des Tensor Cores et des RT Cores) Comment les CUDA Cores, RT Cores et Tensor Cores révolutionnent la puissance des cartes graphiques pour l'IA ?

1 « J'aime »

L’IA joue le même genre de relai dans la progression des performances, que le multi tâche ou le multi threading il y a quelques années. On ne peut tout simplement plus compter sur l’augmentation infinie de la densité des transistors. Du reste même quand c’est possible, c’est outrageusement cher.

1 « J'aime »

Au rédacteur de l’article, tout le monde a raison : essayez le DLSS sur Cyberpunk, c’est dégueulasse par rapport au rendu natif. Sur Indiana Jones, ça fait le taff. Sur Alan Wake 2 c’est dégueu également. Bref, tout dépend, encore une fois, de l’optimisation du jeu derrière.

La video de votre exemple est en dlss 3, elle est d’ailleurs comparée au DLSS 4, les artefacts et ghosting ont quasiment disparu

preuve :

Ben oui ça vient de cette même vidéo… Mais même avec le nouveau mode il y a plein de ghosting et de problèmes

Un autre souci c’est que les devs se reposent sur le DLSS et les jeux ne sont plus du tout optimisés (ou il est impossible de désactiver le raytracing). On arrive à avoir des jeux plus moches et qui tournent moins bien que des jeux qui ont 10 ans, c’est catastrophique

C’est la même rengaine depuis le T&L, voir même la compression de texture S3!
Les optimisations, hors codage avec les pieds qui reste possible, c’est surtout efficace coté matériel et driver. Certes il y a des inconvénients (principalement la latence qui augmente mais également du code spécifique du coté des jeux ou des fonctionnalités spécifiques à un matériel) mais tellement d’avantage par rapport au gain de performance pour les futurs jeux, avec une réelle progression du résultat. Si on regarde la puissance brute pour augmenter les détails et la résolution, il faut beaucoup plus de conso et de transistors pour pas grand chose de mieux visuellement, le rapport coût / résultat n’est pas bon.
D’ailleurs, avez vous remarqué que pas mal de vieux jeux ne tournent pas plus vite sur une carte récente que sur une carte sortie au même moment? C’est juste que les technos qui ont permis d’augmenter les perfs avec les cartes récentes ne sont pas exploitées par les anciens jeux…
Je suis étonné des commentaires sur les optimisations alors que quand on analyse ce qui est affiché et le travail des artistes (les principaux concernés par les optimisations) et des moteurs graphiques, je suis toujours impressionné. Les jeux qui sont « optimisés » sont toujours très nettement moins riches graphiquement (géométrie, textures, animations, …) que ceux « mal optimisés ».

Thx