Tant que tu n’active pas la syncro vertical, tu peux jouer à plus de 60fps
Rx 580 Ici. Tout en Ultra, y compris AA. selon les jeux, entre 40 et 60 Fps (mon écran est à 60 fps).
Honnêtement, je n’ai jamais éprouvé le moindre inconfort même à 40 FPS tant que ce sont 40 fps fluides sans micro-freezes. Sans doute parce que je suis un vieux de 40 balais qui a vu tellement de cinéma à 24fps sans que ça ne me rende malade…
Tant que je m’éclate, les seuls chiffres qui m’intéressent sont ceux de la facture du matos, et merci AMD de les faire aussi bas que possible…
Tu a tout bon …60hz pas plus de 60 Fps…
Non ta carte afficheras plus de Fps, mais en aucun cas tu dépasseras 60 fps …Pas possible…60hz/60 fps…120hz/120fps …144hz/144 fps Max …ect …
Si tu le dis
Tu a pas tout compris en informatique ,c’est pas grave …Prend des cours d’électronique au passage !!..:-)…:-)…
Tu a l’air d’être un bon toi !!..Tu a raison affiche 100 image/s avec une dalle qui ne dépasse pas 60 hz…Des cours d’électronique te ferait du bien je pense …
Normal, puisque tu compares un écran 24/27" avec un 43"…c’est comme si je disais que ma tv 47" est meilleure que mon moniteur 27" alors que l’usage n’est pas le même
Dans un FPS (ex: Overwatch), avoir plus de 60 fps est un réel avantage. Mais dans un RPG ou RTS (ex : Witcher 3 / Starcraft 2), 30 fps suffira amplement. Cette fluidité est recherchée lorsque l’on a besoin de précision.
L’autre point majeur est de pouvoir jouer à son jeu en restant avec une moyenne de fps relativement stable. Si cela chute brutalement (100 à 20 fps), évidemment que le joueur (son cerveau) s’en rendra compte. C’est aussi pour cela que plusieurs jeux bloquent ou permettent de définir une limite de fps maximale.
Dans mon cas, avec ma RX 580, et avec un écran FreeSync 1080p / 75 Hz, ils sont bloqués à 75 fps. Dans certains jeux (« tout à fond »), cela m’arrive de tomber dans les 30 fps, mais ce n’est pas réellement perceptible pour moi.
L’achat d’un GPU « haut de gamme » n’est donc justifié que pour ceux qui jouent en très haute résolution (UHD / QHD) à des jeux très nerveux afin de maintenir un framerate stable et suffisamment élevé. Et on oublie souvent que le CPU ou la vitesse de la mémoire sont souvent les goulots d’étranglement dans ces très hautes résolutions.
Pour du 1080p, un milieu de gamme fera normalement l’affaire quelque soit le type de jeu. Même l’entrée de gamme permettra aussi de jouer correctement à des jeux nerveux (en abaissant le niveau de détail et des effets). Le CPU et la mémoire vive ont aussi bien moins d’impacts.
Et pour avoir plusieurs amis développeurs en jeu vidéo pour de gros studios, ce sont les premiers à s’offusquer du fait que les gens veulent « jouer en 4K ». Pour eux, c’est bien trop exigeant au niveau matériel et sans impact réel pour le joueur (car il ne s’en rend pas compte). Quel intérêt d’afficher autant de pixels sur un écran qui sera utilisé à moins d’un mètre de distance.
Peut-être que ça permet d’afficher un terrain plus important (élargir le champ de vision).
Parce que 60Hz c’est suffisant pour jouer dans de bonnes conditions. Que beaucoup de monde possède encore un écran 60 ou 75Hz au mieux. Les marques ne fabriquent pas des cartes que pour les hardcore gamer, il en faut aussi pour les joueurs occasionnels.
Le 144Hz c’est vraiment pour les passionnés et que la différence tarifaire est colossale pour avoir une carte qui tient le 144Hz. quand au 1440p c’est élitiste.
Moi ce que je trouve complétement aberrant dans ce comparatif c’est de trouver que le prix d’une bête 1660 soit considéré comme « très attractif » alors qu’elle coute un bras.
Élitiste faut peut-être pas exagérer non ? Disons simplement une passion…Parce que mettre une fois 500€ dans un écran qui va tenir des milliers d’heures, ça va… Aujourd’hui, beaucoup de cartes permettent de jouer en 1440p à ± 100FPS.
Je parlais pas du prix de l’écran mais celui de la carte graphique et donc du CPU au cul pour tenir 144Hz et 1440p, le budget est tout autre qu’un PC qui tournera 60 ou 75Hz en 1080p. Je suis pourtant assez passionné, mais je limite mon budget a du 60-70FPS 1080p, c’est déjà suffisement cher comme ça surtout à l’heure actuelle et la flambée du prix des cartes graphiques. Et faire l’impasse sur les Rx570 et Rx580 dans cet article est une aberration, ce sont les cartes avec le meilleurs rapport perf/prix du moment.
Bon après, c’est sûr que ça dépend de ta passion, de ta sensibilité et surtout de tes moyens. Je suis actuellement aussi sur du 1080p et GTX 1070 & Ryzen 3700x. J’ai surtout envie de passer au 21/9, qui selon moi doit forcément être en 1440p, car sinon ça devient vraiment pas assez défini. SInon je suis assez d’accord. Après, le 100Hz me paraît raisonnable.
Enfin quelqu’un qui exprime ma pensée!!
Perso je suis en 1440 a 75hz. C’est un bon compromis avec une 2070 (pas s). Et franchement je vois la différence avec le 1080. Maintenant le fait que 1080 ne soit pas la résolution native de mon écran doit jouer mais cest passer du dvd au 1080 en terme de film…ca parrait plus…immersif. l anti aliasing passe au rayon accessoire pas obligatoire. Apres le 4k doit faloir avoir de bon yeux ou un tres grand écran pour que ca soit vraiment utile. Et il est un peu tôt en terme de technologie je pense. Par exemple il faut savoir qu’au cinéma la majorité des effets spéciaux sont encore traité en 1080
Merci du témoignage. Moi sur un écran 24’, je pense que 1080p est bien, mais pour du 27’ ou 21/9 34-35’ c’est quasi obligatoire aujourd’hui. Je te rejoins sur le fait la 4k est inutile.
Et oui, la 1080p sur du 1440p natif c’est immonde, c’est pas pas un multiple. En revanche, tu peux afficher de la 1080p de manière totalement propre sur un écran 4k, qui est un multiple de 1080p. C’est le principal frein à mon achat de 1440p. Toute ma bibliothèque de films et séries est en 1080p, et ça m’embête de perdre en qualité, un comble…Donc tant que je regarderais mes films sur mon ordinateur, je pense pas franchir le pas à cause de ça. C’est dommage qu’il n’existe pas de résolution 1080x2, on a que 1080x4.
toi tu ne la vois pas, moi si bcp, et ca depend aussi des jeux
Discussion intéréssante en tout cas
pour ma part je suis passé d’un 24" 1080p 60hz à une 27" 1440p 144hz et jamais je ne reviendrai en arrière !
quand je lis que certains ne font pas la différence entre 60 hz et 144 hz , c’est pas pour leur faire peur mais je pense qu’ils sont souci soit avec leur matos soit avec leur yeux…
j’ai déjà fait le test à l’aveugle avec des amis qui pour eux c’est du charabia quand on parle de Hz ou de fps ou même de pouces d’un écran et à chaque fois c’était pareil , dés que je les mettais sur le 144 hz , c’était ah oui c’est mieux , ca semble plus naturel , etc etc…
enfin voilà , et ça c’est uniquement sur le bureau de windows.
évidemment qu’en jeu , la diff entrte 60 et 144 hz est encore plus énorme , après faut il évidemment que la carte graphique suive , là je suis d’accord et il faut du lourd.
Sachant qu’il y a pas mal de jeux AAA où même une 2080 Ti ne tient pas 144 hz en 1080p tout à fond (sur Metro exodus en qualité ultime avec le RT ,ca descends même à 60-70 ! après on peut remercier le gsync/freesync de faire son petit effet )