Commentaires : DLSS : NVIDIA fait déjà des plans sur la comète autour d'une dixième version

La technologie de super-sampling de NVIDIA dopée à l’intelligence artificielle aurait visiblement de beaux jours devant elle.

Le DLSS 20 remplacerait même le joueur !

moi je n’y comprend plus rien. de toute façon les options sont interdites d’activation sur mes rtx 3000 et 4000 dans cyberpunk v2 avec les driver 537.42; sauf le pathtracing qui écroule les performances à tel point que ça en devient débile d’inventer des techno de rendu aussi inefficace. Du coup le dlla ne sert à rien non plus puisqu’on ne peut pas l’enclencher concomitamment avec les dlss. Si l’ia s’occupe de faire les décors des jeux…on va avoir le même décor dans tous les jeux parceque elle simule plus la connerie réelle des humains en fin de compte que leur intelligence.

Je trouve vraiment borderline de limiter les nouveautés technologiques uniquement aux nouveaux produits et meme pas a la gen précedente, surtout au rythme ou ca va…

Bref les generations rtx 30XX, même encore cher payées aujourd’hui, peuvent aller de faire enc…

Quelles options sont interdites ? La seule chose que je vois d’impossible est l’activation de DLAA et DLSS sur Cyberpunk v2 avec pilotes 537.42.

Le dlaa c’est exactement le dlss, sauf que contrairement au dlss où tu calcules une résolution inférieure pour te restituer une image upscalée par IA, le dlaa te fait calculer une résolution X et restituer la même résolution mais dont l’image a été améliorée. Faire fonctionner les deux en même temps n’aurait pas de sens.
Et c’est étonnant que tu n’aies pas le dlss de disponible.
Pour le frame generation tu dois d’abord l’activer sur windows puis redémarrer :

Cherchez « Paramètres graphiques » dans la barre de recherche du système, cliquez ensuite sur « Modifier les paramètres graphiques par défaut » et vérifiez que l’option « Planification du processeur graphique à accélération matérielle » est bien activée.10 sept. 2023

la generation d’images (rtx4000) ET la reconstruction de rayons (toute les rtx)

Tu as Cyberpunk v2, tu as une RTX 4000 et tu ne peux pas activer la « Reconstruction de rayons DLSS » ? As-tu bien activé le "Ray-tracing : accélération » pour les préréglages ?

De plus, comme l’explique flateric_oyzo, il faut que la « Planification du processeur graphique à accélération matérielle » (quel nom !) soit activée sous Windows, mais normalement Cyberpunk 2077 te le dit si ce n’est pas le cas.

Si j’ai le dlss2.
Paramètres graphiques de windows? mais non? vraiment? mais oui en fait! mais put1n pourquoi windows? non de deus mais mrde! c’est quoi ce bordle des paramètres à la khon partout et dans tout les sens? zut, flute, crotte, chier.

Tant que le DLSS, qu’il soit 10, 20 ou 30, nécessitera des cartes Nvidia pour tourner et des machines Nvidia pour être implémenté, je n’y verrai qu’un monopole créé de toutes pièce pour enfermer joueurs et concepteurs dans une dépendance aux produits Nvidia.

Et tant que les personnes un peu informées ne dirons pas haut et fort que le meilleur DLSS, c’est celui qu’on a pas besoin d’activer, parce que la puissance de la carte suffit déjà à faire tourner le jeu dans la résolution souhaitée, ce n’est pas près de s’arrêter.

Je suis bien d’accord avec toi pécore, mais bordel les jeux de cette année sont optimisés à la truelle ! Harry Potter, RE4, TLOU, maintenant la palme avec Starfield…

Si tu joues en 1080p ça va mais sinon… adieu les frames

Le seul jeu vraiment fluide que j’ai fait cette année c’est BG3, et encore, à l’acte 3 les fps s’écroulent…

Parce que c’est le système d’exploitation et qu’il contrôle l’accès au matériel ?

Bonjour,
On en revient au fondamentaux ! L’optimisation est la prem6dee verrues pour avoir un programme fonctionnel. C’est bien joli de vouloir améliorer les graphismes et la résolution par ia pour augmenter le framerate. Les jeux seraient mieux optimisé a la base, on gagnerait aisément quelques FPS.

Ce n’est pas si simple.
On arrive a des limites physiques pour le rastering (taille et puissance électrique des puces). Le DLSS est une façon d’optimiser le code et le hardware indispensable pour continuer à améliorer les graphismes. Je pense que le débat devrait plutôt être sur le vrai besoin d’amélioration…

C’est en effet une partie du débat : a t’on vraiment besoin de toutes ses améliorations récentes, dont l’utilité n’est pas toujours flagrante.

Les consoles Nintendo nous prouvent presque génération après génération qu’on peut faire beaucoup avec peu, à condition de s’en donner la peine. Et de nombreux jeux, dont le récent Starfield, nous démontrent qu’il est tout à fait possible d’avoir des effets d’éclairage sans Ray Tracing gourmand.

Mais comme je disais plus haut, ici il y a système de dépendance qui a été savamment crée et c’est très mauvais pour l’industrie car cela crée une position ultra dominante qui permet de fixer ses conditions tant aux joueurs qu’aux concepteurs et même à beaucoup d’influenceurs. On impose aux concepteurs de faire des jeux toujours plus beaux et plus gourmands, aux joueurs d’avoir du matériel toujours plus récent et surtout, de la bonne marque et aux influenceurs de s’en extasier ou, du moins, de ne pas critiquer, sous peine de blacklistage.

Le DLSS participe de ce système en plein et donc il est attendu qu’il soit autant mis en avant. Mais en réalité, c’est un boulet au pied qu’on s’est attaché nous même. La réalité c’est qu’avec la puissance des cartes et des CPU d’aujourd’hui, surtout comparés aux consoles de jeu, on ne devrait pas en avoir besoin.

Je suis assez d’accord avec toi.

Mais si on considère que l’on les choses doivent évoluer, le DLSS est pour moi une étape logique, cela permet un gain significatif avec un cout réduit. Et non, la puissance des cartes graphiques n’est pas (et ne sera pas avant longtemps) suffisante pour ne pas avoir à utiliser des super tricks pour afficher de la 4k. Il faut bien voir que la 4k, c’est 8 fois plus de pixels, des textures 8 fois plus lourdes et si on veut vraiment exploiter l’affichage, une géométrie au moins 2x plus lourde que le 1080p. Donc à la louche 128x plus de boulot que du FHD.
Même pour le FHD, si tu regardes une image d’un jeu pas trop moche, tu t’aperçois qu’il faut bien plus que la puissance des cartes actuelles pour afficher les images en « brute force » (pas d’assets redondants, pas de lod, pas de clipping ou tricks sur le zbuffer, etc).