Commentaires : Le dock de la Switch 2 est bien compatible VRR mais Nintendo l'a désactivé

De récents tests prouvent que le dock de la Nintendo Switch 2 est bel et bien compatible avec le VRR (variable refresh rate), mais que le constructeur l’a désactivé pour des raisons inconnues, créant incompréhension et frustration parmi les joueurs.

C’est peut être pas encore au point mais il y a une bonne nouvelle : celle où il suffirait d’une maj pour activer cette fonctionnalité !

1 « J'aime »

Nintendo fait chier.
La Switch était ma console préférée, maintenant.

Le VRR n’est en rien indispensable, ensuite il peut y avoir de très bonnes raisons à le désactiver :

  • maintenir un taux minimum de rafraîchissement pour le confort visuel (60hz …)
  • Le VRR requière au moins du HDMI 2.1, ça peut-être aussi donc être pour s’assurer d’un maximum de clients potentiels
  • Le VRR a une plage très large : 30 Hz à 120 Hz ; sachant qu’à 60 Hz en (4k sur un écran ? bonjour la fatigue !) ce n’est pas fou pour les yeux à 30 Hz ça doit piquer.

Je ne pense pas que ça change grand chose à ce niveau…

Sur les CRT, la fréquence de 60 Hz minimum était nécessaire, du fait du fonctionnement de la technologie (un flash à chaque rafraichissement, donc il fallait un taux de rafraichissement assez élevé pour que l’œil n’ait pas le temps de voir la luminosité du flash diminuer).

Avec les OLED et LCD, la luminosité est constante, le rafraichissement ne fait que changer le contenu de l’image, s’il a changé depuis la précédente.

Donc sans le VRR, si le GPU produit les images moins vite que la fréquence de rafraichissement, ça va simplement maintenir certaines images plus longtemps (2 cycles ou plus) que d’autres, ce qui n’apporte aucun bénéfice visuel, au contraire (dans une séquence animée, avoir certaines images qui s’affichent deux fois plus longtemps que d’autres, c’est désagréable visuellement…).

Ça ne justifie pas de le désactiver complètement… Le fait de supporter le HDMI 2.1 et la VRR pour une source n’implique pas qu’elle n’est pas compatible avec des écrans HDMI 2.0 ou moins.

Même chose que sur le premier point. On n’est plus en CRT, le 30 Hz ça ne scintille pas, l’image reste stable. Ça peut manquer de fluidité sur les animations, mais ça ne sera pas plus fluide à 60 ou 120 Hz si ce qui limite c’est la capacité du GPU à produire plus de 30 images par seconde.

3 « J'aime »

Je suis à la ramasse je pensais que l’on pouvait paramétrer la plage VRR (mini/maxi), par exemple pour ne pas être en dessous de 60, pas au dessus de 120.

J’en était convaincu. Je pense que Nintendo l’a désactivé parce qu’ils ne veulent pas se retrouver avec des développement qui se reposent dessus pour palier leur manque d’optimisation et avoir des expérience beaucoup trop variable suivant qu’un joueur possède une TV qui le gère ou pas.

Parce que malheureusement c’est le danger surtout en début de gen quand on est pressé de sortir son produit dans la fenêtre de sortie (la première année quoi) et qu’on ne maîtrise pas encore le nouveau matériel ou que les kits ne sont pas encore optimaux.

On peut garder espoir que Nintendo, après analyse de ce qui a été produit, et aussi après avoir optimisé ses kits de dev et ses drivers, libèrera la fonctionnalité. Surtout si le parc de TV continue à évoluer vers le VRR de manière rapide. Mais il se peut que ça n’arrive jamais. Ce serait très con.

Ils ont peut être désactivé ça pour pouvoir faire de la communication plus tard sur une avancée technologique.

1 « J'aime »

Ok on va faire sans. Mais on peut avoir le 60 fps sur les jeux Xenoblade ? Siouplaît !

| @fodger: ce n’est pas fou pour les yeux à 30 Hz ça doit piquer.
Au contraire, je trouve que le VRR est utile dans le cas où le jeu baisse sous la fréquence de base de l’écran. C’est moins dérangeant en VRR de passer sous les 60Hz (pas d’effet bizarre à l’écran) que sans. Ca compense les baisses de FPS.

1 « J'aime »

Le VRR sur les TV, c’est très aléatoire. Le PC du salon est un mini PC AMD, VRR, il marche sur une Samsung, pas sur l’autre (le tearing reste). Donc je pense qu’ils vont attendre un peu pour ne pas s’attirer les foudres des clients.
L’autre solution: que NVidia l’ait imposé pour ne pas donner raison à AMD et promouvoir le GSync totalement en perte de vitesse (vu qu’il n’est pa gratuit pour le constructeur d’écran)

Sauf qu’en dessous de 70 Hz il est admis que la fatigue oculaire provoquée est réelle, alors certes le vrr vise à réduire les effets de déchirures, flous lors de changement rapidement d’écrans mais pour en profiter réellement il faut quand même avec du coup une conf assez conséquente surtout avec des résolutions élevées.

La fatigue oculaire existe toujours avec des écrans plats même si c’est plus stable que les CRT, la lumière est directement envoyée vers l’œil, sans compter les lumières bleus qu’on sait plus nocives (donc préférer des gammes chaudes).
C’est moins présent pour les vidéoprojecteurs du fait que la lumière est réfléchie.

Oui, mais la fréquence de rafraîchissement de l’image n’a plus d’impact sur cette fatigue, car la luminosité ne varie plus selon le rafraîchissement.

Et j’aurais tendance à penser par contre que le tearing et le stuttering ça engendre aussi une fatigue (pas forcément occulaire), qui elle est évitée avec le VRR.

Citation @Fodger

Je suis curieux de voir tes sources. Après, je suis un vieux, je joue encore parfois en tv crt.
Je ne joue quasiment que sur iGPU, et l’ordi avec un GPU est brnaché sur un TV de 15 ans (une bonne, mais qui plafonne en 60Hz)
Je joue parfois sur la grosse tv quand elle est libre en même temps que moi, mais je n’ai pas de soucis à jouer à la switch qui ne doit pas souvent atteindre les 60hz…

Le principe est connu depuis des décennies … pas trop envie de chercher à nouveau.

Et justement le principe de la persistance rétinienne ça ne concerne que les sources lumineuses qui scintillent et qui semblent stables grâce à la persistance rétinienne quand elles scintillent assez vite, mais qui nécessitent un scintillement encore plus rapide pour ne pas fatiguer les yeux… D’où le besoin d’une fréquence de scintillement élevée sur les écrans fonctionnant comme ça…

Mais un écran LCD ou OLED ne fonctionne pas comme ça, les pixels des LCD et des OLED ne scintillent pas. Tu peux facilement le vérifier en faisant une photo d’un écran, même au 1/1000ème de seconde, tu auras toujours l’image complète visible sur ta photo. Parce que l’image sur les écrans d’aujourd’hui est permanente. C’est d’ailleurs pour ça que quand on est passé sur CRT au LCD, on a en général baissé la fréquence : les CRT étaient souvent à 75 ou 90 Hz, parfois même plus, et ça a été baissé à 60 Hz, parce que le problème du scintillement ne se posait plus et que 60 Hz était la fréquence minimale pour avoir à la fois un affiche fluide des vidéos NTSC (les 60 Hz ça permet d’afficher une vidéo NTSC sans tearing ou stuttering en affichant chaque image 2 fois, alors qu’avec le 75 Hz t’as une image sur 2 qui est affichée 3 fois, ce qui fait du stuttering, ou alors tu dois composer des images intermédiaires à partir de deux images successives, ce qui fait du tearing) et une fluidité suffisante pour un usage courant (à 30 Hz, la souris saccade clairement, et les jeux ne sont pas fluides). Si à l’époque en vidéo ça avait été le standard à 25 images par seconde qui dominait, les écrans LCD auraient peut-être même été très majoritairement à 50 Hz…

Exemple concret sur mon écran, photo prise au 1/1000s, on voit bien que l’image est complète :

Éventuellement sur certains LCD tu peux avoir un scintillement du rétroéclairage, s’il fonctionne en PWM pour moduler la luminosité. Mais ça ça n’a rien à voir avec la fréquence de rafraichissement, sur un même écran un rétroéclairage PWM scintillera à la même fréquence que le rafraichissement soit à 30 ou à 200 Hz…

Tiens d’ailleurs pour info, y a plein d’écrans LCD qui fonctionnent en fait SANS rafraichissement. Et tu peux les regarder autant que tu veux, ça ne scintille pas. C’est le cas de quasiment tous les écrans LCD basiques genre afficheur 7 segments sur les horloges et montres…

Le taux de rafraichissement minimum c’est justement le contraire, un écran VRR permet un léger gain de confort, ça remplace pas un 60 ou plus, mais c’est mieux que sans.
Le HDMI 2.1 n’est pas obligatoire. Il est seulement nécessaire pour le standardiser, FreeSync et GSync fonctionnement parfaitement avec de l’HDMI 2.0.
La plage des VRR dépend justement des VRR, chez AMD je crois que ça commence à 30 jusqu’à probablement l’infini, chez NVidia je ne connais pas le minimum, mais à 20Hz, ça fonctionne encore, sur certains GSM, ça commence à 1Hz. Souvent les écrans FreeSync pas cher commencent à 48Hz en VRR.

Donc, non, ce ne sont pas de bonnes raisons pour le désactiver, surtout avec un APU Nvidia. Soit les drivers ne sont pas au point (ce qui m’étonnerait vraiment), soit Nintendo et/ou Nvidia préfèrent le désactiver pour des raisons de « DLC matériel » comme tout deux savent le trop le faire.
Par contre, oui, ce n’est pas indispensable, par contre c’est un gros plus.

Non, tu peux régler ton framerate (en tout cas sur PC), mais la plage VRR non, c’est matérielle. Enfin, tu peux en limitant ta fréquence, de facto ça limite vers le haut la plage, m’enfin faut pas être trop malin pour faire ça.

1 « J'aime »

C’est bien le problème ça commence à 30 Hz, pour commencer à ressentir peu de fatigue il faut ~85 Hz minimum.

Suffit que tu ais une config un peu juste avec du vrr, ben c’est pas garanti.