Je vois pas mal de post ou de tests de cartes graphiques où on parle de chutes de performances en 1920*1200, AAx8, AFx16, ou en 1680x1050, AAx8,AFx16 (voire même en 2560x1600 pour les sites mettant en ligne des tests de CG).
Personnellement, je ne vois pas beaucoup de différences entre en AAx4 et un x8, ou un AFx4 et un autre supérieur dans ces résolutions (surtout en 1920x1200, et encore plus en 2560x1600).
Dans la pluspart des jeux auquels je joue (Mass Effect, Oblivion, NFS Shift, Grid, Crysis, TrackMania, Assassin’s Creed…), je ne vois pas l’intérêt des ces AA ou AF poussés à leur maximum en HD.
Ca sert à craner dans les milieux kevinesques :ane:
De ce que j’ai cru comprendre, si ta config ne peut pas faire tourner un jeu en HD avec l’AA x8 et l’AF x16, c’est pas une bonne config :ane:
Edité le 06/10/2009 à 15:25
+1 Ça dépend du pitch en autre… par exemple sur un écran 20" wide et 22" wide la résolution est la même, donc sur le 22" l’AA 8x sera mieux justifié que sur le 20"… Par contre il est vrai que l’AA @ 4x est très souvent suffisant
Pour l’AF c’est différent vue que ça repousse le flou sur les textures… perso je le force presque toujours @16x dans le driver vidéo vue que ça consomme pas mal moins que l’AA.