Passée au crible par Digital Foundry, la jeune technologie de super-sampling d’Intel baptisée XeSS affiche des résultats prometteurs.
Franchement, et même si j’y crois plus trôp, j’espère vraiment que les équipes en charge des GPU vont convaincre les décideux de continuer à développer le produit. On a VRAIMENT besoin d’un troisième acteur sur ce marché.
Les différences sont vraiment très rminimes, tout ce joueras sur le prix/disponibilités/compatibilités M$ à vraiment une carte jouer.
Perso, depuis plusieurs mois, et à chaque vidéo comparative, je ne vois aucune différence entre telle et telle technologie.
Elles se valent toutes.
Mais si Intel retire un jour (prochain ?) ses billes du panier des CG, je préfère être au courant maintenant et ne pas utiliser leur XeSS. D’ailleurs, même si le prix vaux le coup, je mise sur autre chose que du Intel…
@SPH : J’ai test le dernier FSR sur CP2077 c’est pas dégueu du tout. Je trouve qu’il y a une bonne amélioration niveau qualité.
Figure toi que parfois, en vidéo comparative, je préfère l’effet qui n’est pas celui mis en avant…
Perso (et ça n’engage que moi) je trouve que toutes les vidéos sont pixélisées et à 60fps au max : impossible de juger de la qualité. II n’y a qu’en affichant en direct le moteur sur le matériel qu’on peut juger.
On nous vend un peu des vessies pour des lanternes, surtout quand on voit que la majorité des joueurs est encore en 1080p
J’aime le Full HD et mon moniteur 27’ s’y prête bien. De plus, ma future CG sera une 3070Ti
Le XeSS c’est presque la première chose sur laquelle Intel a communiqué concernant l’avancée de leurs cartes. Visiblement ils en étaient content et le sont toujours.
C’est bien, je leur souhaite de réussir mais d’une part, la concurrence le fait déjà et plutôt bien, d’autre part ça ne remplacera jamais de vrais performances et il faut, bien sur, que les jeux le prennent en charge.
Une autre question me vient à l’esprit : Intel avait il vraiment intérêt à créer son XeSS ? N’aurait il pas mieux fait d’utiliser le FSR d’AMD, qui est open source, et de garder ses ressources de R&D pour les mettre ailleurs.
Trois techniques d’upscalling différentes, ça va être pénible à implémenter pour les développeurs. Ils risquent de faire l’impasse sur la moins utilisée des trois sauf si Intel allonge un billet.
Un peu overkill une 3070 ti dans cette définition non?