Forum Clubic

Commentaires : NVIDIA Reflex : peut-on dire adieu à l'input lag?

Lors de sa conférence de mardi, Nvidia a révélé pléthore de nouvelles cartes graphiques, mais ne s’est pas privée de quelques surprises comme sa nouvelle technologie de réduction de latence : Reflex.

1 J'aime

Notamment pour des développeurs qui se retrouvent déjà à devoir intégrer synchronisation verticale g-sync et free-sync.

Il n’y a aucun développement nécessaire pour la prise en charge de ces technologies dans les jeux vidéo.

3 J'aime

nvidia devra rendre des technologies aussi utiles gratuites pour tous , comme le fait AMD avec freesync et autre. ce ne sera qu’à ce moment là qu’nVidia remontera dans mon estime .
Oui ils sont tres forts pour faire des CG qui pètent le feux , les GTX 30xx sont franchement époustouflant , pour le reste …

3 J'aime

Encore une puce facturée 100 balles dans les écrans pour au final aucun apport comme la puce g-synch…

1 J'aime

Marketing à souhait.

1 J'aime

Les joueurs qui chialent pour input lag ? LoL.
Et nous ? Comment on a joué au Battlefield 1942, CS 1.5, Quake 3…?
Personne, mais personne ne savait c’est quoi un input lag…
Certains parlent des fps qui doivent dépasser 100 images par sec… Ridicule…
Si t’es nul, aucun écran 144 ou 3millions Hz ne te permettra devenir plus fort.

6 J'aime

+1 avec kenjiamo

je comprends quand clubic dit ça : « notamment pour des développeurs qui se retrouvent déjà à devoir intégrer synchronisation verticale (Utilisée par g-sync et free-sync) »
les devs n’ont rien à faire de ce point de vue non ?

1 J'aime

Fallait lire l’article Bombing !
C’est pas une puce, juste une API.

G-Sync c’est très très agréable, c’est du luxe, de polissage, mais vraiment c’est géniale.

1 J'aime

Non on chiale depuis longtemps là-dessus.
Typiquement avec l’abandon des écrans cathodique, l’input lag avait explosé sur les premières dalles tn.

Clairement tu ne seras pas meilleur, mais tu t’éloignes du sujet, bien sur c’est plus confortable d’avoir le siège d’une porsch que d’une Dacia, mais le siège de la Porsche fera pas de toi un pilote c’est sur.

En revanche quand tu es vraiment bon, revenir sur des 60 hz, c’est un peu comme demandé à un pilote de F1, de conduire dans un siège de dacia, il va toujours être très fort, mais légèrement handicap tait par rapport à autres.

3 J'aime

Je suis pas spécialiste, G-sync une fois activé, reste activé sur tout les jeux, en revanche, cela semble bien mieux intégré dans certains jeux que d’autre, pourquoi ? je ne sais pas.

Peut être quelqu’un ici à une réponse.

Bah j’ai lu…

Reflex s’accompagnera d’un nouveau module dans les écrans g-sync visant à mesurer l’input lag.

Grave, avec certains écrans, même encore aujourd’hui, tu as plus de « ping » dans l’écran qu’avec la connexion internet…

Perso j’ai choisis mon écran (une dalle MVA) par rapport à cette caractéristique, entre autre, à l’époque…

https://www.lesnumeriques.com/moniteur-ecran-lcd/iolair-mb24w-p3118/test.html

(et oui je l’ai toujours :sweat_smile: )

C’est étonnant comment à chaque fois Nvidia sort une technologie propriétaire et peux de temps après AMD sort une version open source/libre et fonctionnant de façon comparable ou supérieur qui au final rend complètement inutile l’avantage qu’ils possède voir qui est écraser par une version moins cher (gratuite ?) et faisant fuir tout ceux qui aurait voulu de la solution Nvidia, voir même force Nvidia à eux même rendre leur cartes compatible avec la solution AMD.

Et pourtant, jamais ils n’apprennent la leçon, ils réitèrent toujours comme si ils allait avoir une solution miracle que AMD ne serrait pas capable de reproduite et qui justifierais de laisser tomber sa carte actuelle pour acheter une Nvidia…
L’arrogance du monopole marketing…
Avec AMD qui devrait revenir dans la course des cartes haut de gamme et Intel qui va pas tarder à se joindre à la danse, ce genre de pratique risque de leur coûté cher…

1 J'aime

J’attends la réponse de AMD en CG pour peut être me remettre au PC

L’arrogance? C’est du marketing, c’est tout. Ils sont premiers sur une feature, ils la font payer. Ca paye la R&D, à l’heure où tout le monde copie tout le monde, ça leur permet de continuer à innover. Quand AMD sort un équivalent gratuit, c’est pas par bonté d’âme, c’est juste du marketing: donnée quelque chose pour ramener des clients quand on a perdu la bataille des perfs… Avec les annonces RTX30xx j’espère qu’ils ont de quoi répondre dans les prochains mois, Intel aussi d’ailleurs, s’ils arrivent tout deux en tant que compétiteurs des RTX20xx ça va pas le faire longtemps…

3 J'aime

Mince alors Nvidia et AMD font du marketing… certains ici vont crier au loup, le marketing cay le mal !

Les dev en vrai ils auront juste à intégrer la fonctionnalité vite fait des que le framework ou la lib utilisée est à jour, rien de dingue

Euh… pas tant que ça…
Aujourd’hui les jeux balancent les frames, ils se calent sur ça. Le GPU se débrouille, si ça tient pas la cadence, le GSync ou le Freesync demande à l’écran de ralentir l’affichage pour éviter le tearing etc…
Là avec Reflex, c’est le GPU qui va pécho les frames tout seul, et en plus y’a de la télémétrie: quand le GPU balance les frames à l’écran, le GPU mesure le temps qu’à mis le moniteur à l’afficher pour de vrai avec du hardware en plus dans le module GSync des écrans compatibles, et donne cette/ces mesures au CPU, qui doit ajuster sa/ses boucles de traitement du jeu…
Donc au final c’est pas du tout plug and play pour les devs à première vue…

Les joueurs ont très vite compris que le lissage de la souris et la v-sync ça ajoute de la latence; surtout les Quakers qui viennent de Q2 … le jeu étant un cas d’école en matière d’input lag.

Et si les joueurs ont tous 125fps sur Quake 3 par exemple, c’est pour d’autres raisons.

Avant de devenir bon il faut bien passer par la case nul, et si t’es nul et qu’en plus tu fais du patinage artistique en sabot tu risques de stagner plus longtemps que les autres …

Fais gaffe, tu demandes aux gens de réfléchir !
Ils n’ont aucune idée du cout de la R&D haha

Regarde ce qu’il y a juste après ton passage en gras : « mesurer ».

La puce supplémentaire dans les écrans servira juste à mesurer précisément l’input lag (à condition d’avoir aussi une souris compatible, puisque l’idée c’est de mesurer le délai total entre l’action sur le périphérique d’entrée et le résultat à l’écran), mais ce n’est pas nécessaire pour le faire diminuer. Une bonne partie de la diminution de l’input lag avec Reflex se fait via des solutions logicielles visant à réduire les délai au niveau du calcul des images du côté du PC. Il y a aussi une partie qui nécessite un écran compatible (360 Hz), mais c’est optionnel, nVidia a montré des exemples de gains assez importants (-33% d’input lag sous Destiny 2 et Fortnite) avec une GTX 1660, qui ne supporte pas ces écrans 360 Hz.

1 J'aime