NVIDIA envisage un futur où la technologie de génération de frames serait poussée à son extrême, allant jusqu’à 16 frames artificielles pour une seule frame réelle. Mais la marque nuance immédiatement, estimant que les joueurs n’ont pas forcément besoin d’autant pour profiter d’une fluidité optimale.
Comme quoi, on nous prépare subtilement ( ou pas ) au futur :
plus de machine physique @home, juste un terminal et des IA qui génèrent le contenu demandé dans d’énormes datacenter à 99€/mois…
Plus sérieusement, on sent de plus en plus qu’on atteint les limites physiques pour les processeurs, soit va falloir trouver une autre techno, soit s’habituer a ne voir que de l’évolution logicielle dans les années a venir.
Est-ce qu’on voit une différence quand on passe d’un écran 165 Hz à un de 240 Hz ? Idem lorsqu’on pas d’une TV 65" 4k vers la même en 8k ? la réponse est non. Je peux également parler de 4G et de la 5G… Il faut juste accepter qu’on a atteint certaines limites et que ça sert à rien d’aller au-delà.
Pour les jeux qui proposent une expérience cinématique, ça ne pose pas de problème de générer 8 ou 16 frames par frame rendue, s’il n’y a pas trop d’artéfacts. Une raison pour les devs pour ne pas optimiser les jeux…
@fawaz c’est le problème avec les « diminished returns ». Avec le recul, le 8k ne sert pas à grand chose sauf si les écrans de plus de 120 pouces deviennent un standard, et on ne perçoit qu’assez peu de différence entre 165 Hz et 240 Hz. Puis pas besoin de taux de refresh « eSport » sur des titres AAA cinématiques bien entendu alors le 120 Hz + flou cinématique suffit pour ces jeux.
Par contre certaines personnes ont besoin des latences plus faibles et débits plus élevés apportés par la 5G.
Le dlss c’est une aberration sur tous les points , NVIDIA en est le grand gagnant. Et le consommateur le perdant:
Avec le dlss les dev n’ont plus besoin d’optimiser leurs jeux → le consommateur est obligé de prendre des cartes plus performantes pour compenser ça, le dlss sur ces cartes permet de masquer le problème → ça permet à NVIDIA de vendre des produits tjr plus chers
C’est peut être une aberration, mais c’est une évolution imposée par les limites physiques des puces graphiques. Ca fait pas mal de temps que l’on sait qu’il fut changer de paradigme pour gagner en performance et en qualité visuelle. Pour plein de raisons (surtout historiques et de simplicité), on continue sur la triangulation et le placage de texture, les technologies telles que le FSR et le DLSS permettent d’outrepasser les limites de la rasterisation pour un coût raisonnable.
Juste pour illustrer ça, lance un très vieux jeu, sur une carte moderne, tu verras que tu n’as pas beaucoup plus de FPS (peut-être entre 10x et 100x) qu’à l’époque, c’est moche, alors que ta carte graphique est plusieurs milliers de fois plus complexe et rapide. C’est juste que les technologie actuelles qui boostent les performances et améliorent le rendu n’existaient pas à l’époque (gros caches, compression des textures, T&L, TXAA, …).
On peut faire le parallèle avec les processeurs, le 64 bits, les instructions SIMD (MMX, SSE, AVX, …) sont ils aussi des aberrations?
Même chose pour la vidéo et l’audio (probablement même plus proches comme cas): les compressions destructives (WMA, MP3, AV1, HEVC, …) sont-elles aberrantes par rapport au gain de débit?
Donc avant les dev ils optimisaient pour éviter que les gens aient à acheter les meilleures cartes graphiques, et là soudain, ils ne le feraient plus parce qu’il y a le DLSS ? C’est quoi la logique derrière ce raisonnement ?
Tant de commentaires sans dire une seul fois que le problème de cette ‹ technologie › est la dissociation entre fps et réactivité du jeu.
Quand un jeu tourne avec beaucoup de fps sa latence est reduite car les inpout du joueur, c’est a dire les mouvements de souris et appuie sur les touches sont pris a chaque frame.
Avec du frame generation les input sont pris SEULEMENT pendant les frame réel et pas pendant les frame généré par ia.
Avec les rtx40 c’était ok car on voyait très bien que pour avoir 240fps avec ça il fallait avoir une 4090 qui fesait tourné le jeux en réalité a plus de 140fps, donc déjà ultra reactif.
Avec le multi frame gen le problème, c’est que le grand public va croire qu’il vont acheté une carte graphique pouvant faire tourné les jeux a plus de 144fps voir 240 mais le ressenti ne sera même pas un jeu a 60 fps…
Vraiment c’est n’importe quoi…
Si on parle du grand public, ce ne sont pas des réflexes au 100ième de seconde. Donc 30fps « réels » ou 120fps « simulés » feront juste une impression de fluidité, mais ne changeront pas l’expérience de jeu.
La plupart d’entre nous ont des réflexes inférieurs au 1/10ième de secondes, et il faut ajouter la latence à l’affichage quand on jour sur une télé ou un écran de mauvaise inadapté…