Annoncé cette semaine en même temps que les nouvelles cartes graphiques RX 6000, le FSR 2.0 d’AMD s’apprête à faire des émules.
Toujours est-il qu’il est assez impressionnant qu’une technologie open-source dispensée de l’aide du machine learning puisse tenir aussi bien tête au DLSS.
J’vois pas en quoi c’est étonnant.
Ce qui m’étonne moi, c’est qu’il y en ai encore pour croire au bullshit marketing de nv, après la tentative physX, et, toujours d’actualité, l’arnaque gsynch.
Non y’a pas besoin de carte dédiée pour gérer la physique, merci AMD, non y’a pas besoin de puce à 300 balles pour gérer le VRR, merci AMD, non y’a pas besoin d’IA pour gérer un upscaling de qualité, merci AMD.
Autant je suis globalement d’accord, autant pour la partie physic je ne le suis pas.
En fait à l’époque pour les quelques jeux utilisant NVIDIA PhysX (genre je me rappelle du premier Batman) les GPU n’étaient simplement pas en leur temps ‹ assez › capables de faire tourner les jeux avec PhysX en ultra. Mais Ca n’avait aucun sens de mettre une deuxième carte pour ça, juste à attendre un ou deux cycles pour que ce soit géré nativement.
La gestion de la physique aussi poussée nécessitait réellement une partie hardware spécifique, d’ailleurs avant qu’Nvidia rachète la techno on devait acheter une carte pci physx si mes souvenirs sont bons.
Mais les gens se sont simplement rendus compte qu’il n’était pas nécessaire d’avoir une physique aussi poussée, disons que ça n’apportait pas grand chose en terme de gameplay vu le sacrifice en performances.
On ne devait rien du tout.
Et des moteurs de jeu comme Source (plus précisément Havok) ont démontré toute l’inutilité de ces cartes, sous pavillon NV ou pas.
Pour la VRR, je suis moyennement d’accord. Le FreeSync est très permissif, peut être trop, certains écrans FreeSync ont un très mauvais comportement en VRR avec un support aléatoire et limité (souvent 48-60Hz) et d’autres le font beaucoup mieux. Par contre, le GSync (qui est très cher, ça on est d’accord) assure par contre des restrictions plus … restrictives, et donc par conséquent, ça fonctionne toujours très bien. Après on est d’accord, NVidia se sucre un max, comme toujours.
Pour avoir eu un écran FreeSync 165Hz (plage de 48 a 165Hz), le support était aléatoire, des fois, c’était très agréable, et par moment insupportable (ne fonctionnait tout simplement pas), et les rares fois où je descendais sous les 48Hz, ça ne fonctionnait pas, logique. Depuis je suis passé à un GSync 120Hz, c’est pas parfait (dans le cas où parfait voudrait dire quelque chose de concret), mais pas de surprise, aucun souci. Les rares moments où le GPU ne suit pas (faut le vouloir mais ça peut arriver vu l’optimisation chez certains développeurs …), ça reste quand même agréable sous les 60, ça vaut pas un 60+ mais « ça va ». Après c’est trop cher pour ce que c’est.
Il me semble que le Source était couplé au moteur physique Havok (encore largement utilisé de nos jours), mais ça rejoint ce que tu dis.
Oui je viens de préciser pour plus de clareté.
J’applaudis. Une démarche qui va à contresens de la tendance « ça ne tourne pas assez vite ? Achetez du nouveau matos », il faut le noter tout de même.
Après, j’ai - la chance d’avoir - une RTX 3XXX, donc pour moi peu importe qui l’emporte.
Mouais on attendra les testes sur d’autres jeux, car comme tout fabriquant, on montre bien ce qui marche pour se vanter. Après les gens faut arrêter avec votre fanboyisme AMD, ils seraient leader il auraient un autre comportement, et merci à Nvidia de faire des trucs bien comme de la m*rde pour justement provoquer la concurrence
C’est vrai que NVidia fait de la m*rde dans le but de provoquer la concurrence ^^
C’est pas parce qu’on est content de ce qu’à fait AMD qu’on est fanboy, ça n’a rien à voir. Par exemple Garden_Dwarf a une RTX et félicite AMD, j’ai moi-même également une RTX (une 3090 si tu veux savoir), et le fait qu’AMD progresse énormément sur le FSR je trouve ça génial. Il m’arrive d’utiliser (rarement) le DLSS, sur des jeux genre CP c’est pratique, mais les technos proprio, ça limite quand même vachement les choses, ça te cantonne à rester chez eux, comme le fait Apple par exemple. Et même s’il fait peu de doute que dans les semaines ou mois à venir NVidia fera une MAJ pour reprendre le lead, ça n’empêche qu’il est vrai qu’AMD a fait du super boulot, qu’on soit chausser chez eux ou chez les autres.
C’est justement ne pas reconnaitre le travail effectué par X ou Y qui fait le « fanboyisme », pas le contraire.
Ça me rappelle un truc récent, le Ray… quelque chose. Ça va me revenir.
Si tu voulais jouer à un jeu utilisant Physx, si, tu devais avoir la carte Physx sous peine d’avoir des performances abominables, et Physx étaient treeeeees loin devant havoc en terme de physique.
Mais très peu de jeu l’utilisaient au final
…Ban ? Pour mieux masquer les défauts trop brillants ?
Je plussoie sur @Pernel.
Ce n’est pas tant la qualité du produit que beaucoup d’entre nous saluent, que la démarche globale d’AMD qui vise à proposer des outils ouverts à tous les matériels aux lieux de les réserver à ses seules cartes, comme d’autres le font. Des outils aussi qui permettent de rallonger la durée de vie des produits au lieu d’inciter à en changer tous les quatre matins.
En cette période de pénurie et globalement dans un contexte mondial où la surconsommation commence à devenir un vrai problème, on ne peut qu’approuver.
si ça permet de faire durer les vieux GPU plus longtemps, ça me dérange pas de jouer en 900px upscale 1080 sur mon laptop de gamer si ça évite de remettre de l’argent, et ma tour vu les prix ma 970 va encore rester un temps
Sans parler des consoles qui vont vraiment en bénéficier (et pousser les devs a l’utiliser).
Les FSR était déjà vraiment pas mal dans la version précédente.
Maintenant, avec ce genre de technologie, les studios vont encore plus se toucher la nouille pour optimiser les jeux. Quand on voit la puissance des CG, proco et ce qu’ils en font… Mais bon, faut que ça aille vite, que les jeux sortent même s’ils ne sont finis alors hormis bâcler, pas vraiment d’autres alternatives.
A part plus de FPS je trouve que l’utilisation du FSR dégrade la qualité graphique d’un soft.
Est-ce moi ou est-ce un fait avéré ?
J’ai juste essayé ce système sur CP2077 et je trouvais le décor en FSR plus dégueu que sans. Mais sans effectivement j’étais sur du FPS moins constant.