Commentaires : Le DLSS 2.2 est déjà disponible sur Rainbow Six Siege

Désormais bien connu des joueurs PC équipés d’un GPU
NVIDIA RTX, le Deep Learning Super Sampling (DLSS) est en passe de se mettre à jour globalement vers sa version 2.2. C’est en tout cas ce que l’on comprend en fouillant dans les fichiers de Rainbow Six Siege.

1 « J'aime »

Nvidia veut riposter à l’arrivée imminente du FidelityFX Super Résolution. Que le meilleur gagne. Nvidia aura intérêt à mettre le paquet ceci dit pour réussir à imposer leur technologie propriétaire en lieu et place d’un technologie open et multiplateforme.

@pecore

Le Fidelity FX d’AMD ne fait tout simplement pas la même chose que le DLSS. D’un côté on a un algorithme d’upscalling qui est exécuté par les shaders du GPU (et occupe donc les même ressources qui sont aussi utilisées pour le rendu du jeu) et l’autre une technique qui utilise l’IA et est exécuté sur des unités spécialisées du GPU.

Et pour l’instant personne n’a pu vérifier que le résultat du FX soit d’une qualité similaire au DLSS.

Tout cela me rappelle furieusement la guerre entre le Glide de 3DFX et l’anti-aliasing de Nvidia et on sait comment ça a fini.

Ce serait vraiment surprenant qu’utiliser la DLL fournie avec RB6 permette de profiter des améliorations de DLSS 2.2 sur d’autres jeux. Dans le meilleurs des cas ça ne devrait rien changer, au pire ça ne marchera plus du tout.

J’avoue ne pas comprendre le rapprochement.

Nvidia possède les Tensor Cores dédiés à l’intelligence artificielle et tout ce qui est DLSS … chez AMD y a rien de tout ça donc … les ressources du GPU ne sont pas allégés en tous cas pas comme Nvidia.

Faut pas s’attendre à un miracle chez AMD … pour l’instant le Ray Tracing n’est pas bien géré sur leurs cartes !

pareil que toi, je ne vois pas le rapprochement.
Après en ce qui concerne nvidia
Je trouve que c’est justement du gaspillage de ressource. je suis plus pour les techno qui accompagne les dev (cf: Nanites et lumens)

Nanites c’est « accompagnant » si tu utilises un asset disponible dans le store d’UE5. Sinon ça va encore creuser le fossé entre les indé et les gros studios. Après je suis d’accord que c’est très intéressant, mais je ne le vois pas du tout comme une technique qui va permettre de faciliter la vie des dév. Fournir des assets extrêmement détaillés et qui sont tous au même niveau de détails quand on est collé dessus, ça fera autant de travail si ce n’est plus que de gérer le lod.

Lumens est intéressant mais ça reste un GI logiciel, ce n’est qu’une des choses qui est permise par l’utilisation du RT et c’est très loin de l’égaler sur ce point.

Le RT c’est quand même le graal du rendu 3D, ça permet la conception de scène 3D et de leur éclairage plus naturelle. Puisque ça ne repose plus que sur la géométrie et les matériaux. C’est pas pour rien que ça a été la 1er approche utilisé pour la création de CGI.

Glide : une API propriétaire uniquement utilisable sur les cartes 3Dfx et qui avait deux intérêts majeurs : l’accélération des calculs 3D et le lissage des pixels pour rendre les graphismes plus beaux. Si mes souvenir sont bons il y avait même des unités de calculs dédiées sur les cartes 3Dfx.
Cette technologie s’est retrouvée opposée aux API Direct X et OpenGL et à la technologie de lissage des pixels crées par Nvidia, moins efficace mais qui a été intégrée dans ces API open, ce qui a fini par rendre le Glide superflu et inintéressant.

Il me semble qu’il y a deux ou trois similitudes ici avec ce qui se passe en ce moment.

Ce qui a enterré le glide ce n’est pas l’ouverture des autres API, c’est que les cartes des leur concurrents ont fini par rattraper puis par devancer les produits de 3DFX au niveau des perfs. L’approche de nvidia, enfin, celle de tous les constructeurs qui suivaient les standards dx et opengl (ATI était aussi dans le coup) et celle de 3dfx pour l’anti antialiasing étaient similaires, la seule différence c’est qu’effectivement il y eu un support hardware en 1er chez 3DFX. Mais cet avantage n’aura duré que quelques mois au plus. Et 3dfx était déjà dans le creux à ce moment.

Si tu veux voir une technique d’AA originale, supporté en hardware et qui aurait du faire une différence mais que tout le monde a ignoré tu peux regarder les produit de Rendition et les cartes basé sur le Vérité 1000.

Ça aussi, oui. La morale de l’histoire c’est que lorsqu’on veut imposer une technologie propriétaire il faut être vraiment très supérieur à la concurrence. C’est ce qui me fait avoir quelques doutes quant à la pérennité du DLSS à terme. Sauf si le DLSS se montre vraiment supérieur au Fidelity FX et pour ça, réponse dans quelques jours.

Bon, tout ça c’est bien beau mais avec la pénurie de puces et la grande mode du « scalping », c’est pas encore que je troque ma vieille GeForce pour une RTX sans vendre un rein !

Il serait bien d’arrêter d’être un peu de mauvaise foi, le propriétaire n’est pas forcément le mal. Je ne suis pas fanboy NVIDIA attention et effectivement c’est plus cher, d’un autre côté j’ai du mal à me souvenir à quel moment AMD était devant en terme de performance par rapport à NVIDIA…
NVIDIA est le leader depuis plus de 20 ans sur les GPU, que ça soit en terme de perf, drivers ou technologies.
Ce Fidelity FX n’est pas comparable au DLSS… c’est de l’upscaling qui va pomper en plus sur les perfs du GPU en lui-même… à quel moment vous pouvez penser que ça peut être mieux que le DLSS qui utilise des composants dédiés avec IA…
Les GPU AMD sont en dessous, point barre. Cependant AMD a réhaussé la barre côté CPU, on peut pas tout avoir !
Wait & see.

C’est donc que ta mémoire ne remonte pas loin. neutre

Je suis l’actualité et achète des cartes graphiques depuis + de 25 ans, Nvidia n’a commencé à maîtriser la chauffe et la consommation de ses cartes qu’à partir de la génération GTX 5** (Fermi), soit à partir de 2011.

En 2010, une AMD Radeon HD5870 faisait aussi bien que sa rivale GTX 470 plus chère et qui consommait et chauffait bien plus, et sur certains jeux la HD5870 arrivait même au niveau de la GTX 480 beaucoup plus chère.

J’imagine que tu as su trouvé l’exception en 20 ans… Mais je n’ai malgré tout pas tort je pense.

Ce n’était la seule exception, il y en a eu bien d’autres. Ceux qui ont toujours comparé les deux marques le savent bien.

Bien d’autres ? J’ai quelques doutes là dessus. M’enfin, je vais abréger, depuis la gen 9, aucune AMD n’a pu faire mieux qu’NVIDIA, et ça date déjà au moins depuis 2017.

Si tu le dis…tu continueras donc à acheter Nvidia, et d’autres continueront à comparer, chacun ses choix. neutre

Mais c’est curieux, on est déjà passé de « domination depuis 20 ans » à « depuis 2017 ». ^^

Oui, le discours à changer mais d’un côté tu ne cites pas non plus tes sources. Tout le monde le sait sur la toile, la chauffe et les drivers AMD c’est de la merde depuis des années, ça ne s’est amélioré que récemment. M’enfin, discours unisens.