Comme une réponse aux critiques formulées à l’encontre des 8 Go de VRAM intégrés à ses dernières cartes, NVIDIA optimise nettement l’utilisation par DLSS de la mémoire vidéo.
« le rendu DLSS étant aujourd’hui au niveau – voire supérieur ? – à ce que l’on pourrait appeler le rendu natif »
Bonne blague ! On n’est plus le 1er avril pourtant…
Pour ce genre de mise à jour mineure (2.1 vers 3.1), il faut que chaque jeu déploie son propre patch (cela me parait insensé si c’est le cas) ? Ou cela passe par les drivers (beaucoup plus logique) ?
180 ou 140Mo en 1440p, pas sûr que cela fasse une grande différence mais c’est toujours bon à prendre.
C’est pourtant vrai. C’est illustré par les videos de Digital foundry, qui s’amusent a zoomer sur des bouts d’image pour comparer, et se rendent que -suprise- il arrive que plus de details soient visibles sur la version DLSS que sur la version en résolution native.
Et quand tu réfléchit bien a ce que fait l’upscaler, c’est finalement cohérent.
L’upscaler prend une image basse résolution et « invente » ce que l’image haute résolution aurait dut être. Y compris les textures. Et il le fait tellement bien que dans 90% des cas il reussi a retrouver une texture indiscernable de l’original en pleine résolution.
Mais que se passe il si tu lui donne une texture qui n’etait pas seulement rendu en basse resolution, mais la texture elle même était passe résolution ? Et ben le DLSS arrive a retrouver une version un peut plus haute résolution de la texture, qui n’existe même pas dans les fichier du jeu.
Et on peut dire honnêtement que la version upscalée est plus belle que version native.
Il faut que chaque jeu déploie un patch. Chaque jeu contient sa propre DLL de DLSS, et il faut la remplacer. Mais c’est vraiment trés simple.
en fait, il est même assez facile de remplacer soit même le fichier pour les jeux qui ne le font pas, et ca marche.
Gamer Nexus a fait l’erreur de dire ça sur cyberpunk, tout en précisant bien que c’était lié au TAA merdique du jeu, mais malheureusement tout le monde n’a retenu que le « better than native » et depuis on doit passer notre temps à debunker cette idée fausse.
Merci pour les commentateurs de cette nouvelle! En matière de qualité il est difficile de « séparer le bon grain de l’ivraie ». Thx ![]()
C’est comme une image JPG et BMP (attention je compare pas le DLSS à la compression on est d’accord, le DLSS est une technologie poussée issue d’un travail colossal de la part de Nvidia, je crache pas sur la soupe
) … dans la majorité des cas on voit souvent aucune différence mais la différence elle existe vraiment, ça dépend des images mais si tu prends un screenshot et que tu en fais un jpg y a une différence qui se voit instantanément.
En même temps si quelqu’un croit qu’une image traitée dans le but de réduire les calculs des GPUs peut être mieux qu’une vraie image sans ces traitements … c’est qu’il est pas très intelligent et peut croire n’importe qui « Gamer Nexus » ou un autre.
Combien font la différence entre un enregistrement MP3 et un FLAC ? … à l’oreille la plupart vont voir que du feu, les audiophiles peuvent toujours distinguer les deux. mais quand on a du bon matos la différence s’entend même pour ceux qui n’ont pas l’oreille fine ou musicale.
Quand on voit/entend pas quelque chose ne signifie pas qu’elle n’existe pas !
Avoir plus de détails ne signifie pas que le DLSS est meilleur que le natif
ces détails en plus que tu vois le DLSS les fait apparaitre mais est-ce naturel ? est-ce que c’est prévu c’est là qu’il faut se poser des questions … et tu oublies un truc important, chaque développeur intègre le DLSS à sa façon, parfois ça réussi parfois ça rate c’est une pas une science exacte. quand le DLSS est très bien intégré il donne de bons résultats.
Si Digital Foundry l’a dit … c’est que c’est vrai et qu’on devrait plus se poser des questions ![]()
Tu te rends comptes que tu juges une technologie sur une vidéo on sait même pas comment elle est faite et dans quelles conditions … genre peut-être que la différence qu’ils ont montré tu ne l’auras jamais chez toi ta pensé à ça ?
Dernièrement j’ai vu une Review sur un SSD … j’ai vu qu’un SSD était moins rapide quand il avait un ventilateur
c’est ridicule de croire que le ventilateur fait baisser les perfs heh pourtant ça peut arriver et c’est arrivé à ceux qui ont testé le SSD … le problème c’est que ça fausse les résultats après et tout le monde va croire que le SSD travaille mieux sans ventilateur.
Une review c’est bien pour avoir une idée sur quelque chose mais faut sûrement pas que ça soit la seule idée que ta parce que le test suit un protocole précis et surtout il peut y avoir des imprévus qui faussent les résultats que tu vas prendre pour une règle.
J’ai vu des benchs où un GPU 8 Go de VRAM performait mieux que la version 16 Go … est-ce qu’on doit prendre ça comme une règle ? techniquement c’est possible mais en vrai y a pas de raison, les mémoires utilisées sont les mêmes y a que la taille qui diffère et les jeux ne sont pas sensibles à ce point déjà qu’ils sont peu sensibles aux écarts de bande passante.
Super techno ou pas, avec ma 3060ti j’ai du désactiver le dlss pour rester en natif (sauf MK11), car le rendu était juste aléatoire et globalement dégueu.
Shuuutttttttt … parle tout doucement tu risques de choquer les fans du DLSS Fake Generation ![]()
Restons sur la version officielle : « Le DLSS c’est la vie, le DLSS c’est mieux que le natif, ceux qui disent le contraire sont des gens qui n’ont pas de goût qui vivent dans le déni … la RTX 5070 avec DLSS 4 = RTX 4090 »
Faux, il faut juste le changer en clic dans l’appli DLSS Swapper.
Par contre le DLSS en VR ,c’est bien bien de la daube . On vient bien desuite la différence entre natif et DLSS … Même sur des jeux natif VR qui exploite cette techno ( ex : kayakVR ) les oiseaux dans le ciel qui ne se sont pas net et laisse une sorte d artefact de traîné quand ils volent alors qu en DLSS off ,ben tout et ultra net . Et J en ai plein d’ autres exemples comme ça . Et je ne vous parle même pas des jeux qui ne sont pas natif VR avec mod pour rendre les jeux VR …
Donc je le redis le DLSS en VR c’est pourrie
Je veux bien le lien vers la video de DF où on les voit dire cela. Car je les suis depuis un moment et je ne me souviens pas de cela.
Comme cela, au feeling je me dis que ce n’est pas trop possible. Car « invente » c’est facile à dire, mais moins facile à faire, surtout que ces algos jouent à mort sur la cohérence temporelle et meme s’il réduisent les artefacts qui en résultent, ce n’est toujours pas parfait.
J’adore Nerces, mais son test de la 5060 est quand même « beaucoup » aligné avec la narrative marketting de nVidia qui a été dénoncer par Gamer Nexus…
Qu’appelez vous « natif » ? Si vous mettez une techno d’anti aliasing, c’est toujours du natif ? Ne vous en déplaise, le DLSS s’utilise aussi en tan qu’antialiasing et apporte des résultats excellents (DLAA notamment), donc mieux que du natif !
Voilà, ça va pas chercher plus loin.
Oui, en VR ça marche mal. C’est un fait connu et reconnu.
Merci pour le j’adore ![]()
Je comprends la critique sur l’article 5060. Après, je trouve que ça reste un produit correct (6/10) et DLSS (sans path tracing) marche bien.
Gamer Nexus est dans son rôle, mais parfois on a l’impression qu’il joue un peu les chevaliers blancs ![]()
Non, c’estcontre intuitif mais si tu regardes certaines vidéos de Digital Foundry le rendu DLSS invente des détails qui rendent au final certaines scènes plus propres
Salut, non, pas besoin de patch, c’est des dll directement dans les répertoires du jeu, c’est pas comme AMD … Même Intel fait pareil que Nvidia, tu mets à jour ton dlss via les drivers, cela fait directement le changement dans tous les jeux installés qui ont le dlss de base. C’est simple rapide, et pas une murge comme AMD l’a fait pendant longtemps avec le FSR que peu de jeux sont à jour…
« J’ai vu des benchs où un GPU 8 Go de VRAM performait mieux que la version 16 Go … est-ce qu’on doit prendre ça comme une règle ? » ça pue le fake… du moment que tout est identique : même fabriquant, même voltage, oc, … seul la quantitée de ram diffère, aucune raison que celle ayant le moins soit plus perf dès que tu actives RT (juste les réflexions) + dlss sous CP2077 par ex. même en full HD ça passe pas avec la 8Go, 40fps, c’est pas glopglop surtout que le jeu augmente la conso au fur et à mesure que tu joues… De quitter le jeu, de faire un RAZ du cache de la cg n’y changent rien, après moins de 2min c’est rebelotte
et les verts ventent leur RTX 5060 avec des 150fps en FG4 pour cela pure bullshit !