Commentaires : Test Radeon RX 6800 XT : AMD signe son retour sur le haut de gamme

Je te rappelle que la PS4 et Xbox one sont équipés avec des APU AMD et on constate que ça ne leur a pas donné l’avantage espéré.

Tu as une boule de cristal ? Parce que moi je ne vois pas pourquoi les développeurs se rueraient sur une technologie qui impacte les performances de leurs jeux, d’une part. D’autre part, même s’ils le font, se sera en priorité avec des outils multi-plateformes et donc non-optimisés Nvidia. Enfin, comme tu l’as fait remarquer, l’histoire fourmille d’outils qui devaient révolutionner les jeux vidéos et qui n’ont été que des pétards mouillés.
Bref, avantage définitif mes genoux.

Ptête parce que la plupart des gros éditeurs en parlent, et que de Minecraft à Cbpk77 les premières sorties sont déjà prêtes :roll_eyes:

« C’est en effet le gros point faible de cette Radeon RX 6800 XT, fortement impactée par les ressources supplémentaires que nécessite cette technologie. Sans solution efficace d’upscaling comme le DLSS, difficile d’être compétitive face à la RTX 3080, 60 € plus chère mais aux performances en ray tracing 20 à 30 % supérieures. »

Alors Je pense que vous oubliez le AMD RIS Clubic… il fonctionne très bien et sur tous les jeux quasiment… et en plus il est réglable…

Il faudrait updater votre test sur une plateforme AMD Ryzen 5000 et en utilisant le RIS (pour compenser les faiblesses du RT), alors vous aurez utiliser 100% des capacités de la 6800 XT et vous rendre compte quel concurrence clairement la 3080.

Y a rien au niveau des températures ?

Vous imaginez vous, s’il y a 10ans un test de carte graphique avait mis dans les négatifs/axes d’amélioration le système d’upscaling de la carte, on se serait bien marrés.
C’est vraiment le monde a l’envers, les consoles vont vers du natif et les pc leur faut de l’upscale :wink:
Je n’ai pas été très emballé par le dlss de Metro exodus mais avec ma 2060 et surtout mon full hd d’alors c’était peut être pas le plus adéquat (car le dlss (du moins cette version du dlss) serait moins fiable en full hd)
En tout cas c’était plus moche et du coup j’ai payé la note en FPS pour m’en passer.
Coté nvidia, le dlss nouvelle version à l’air de faire du bon boulot, mais a voir ce que l’amd dans les consoles va rapporter aux gpu amd pc en terme d’optimisation.

Exactement, les GROS éditeurs, ceux qui peuvent se permettre de mettre des sous pour implémenter une technique qui n’a rien d’indispensable et mettre encore des sous pour optimiser le tout afin que cela reste jouable. Pas tout le monde peut se le permettre ou même aura envie de s’em…bêter à le faire. De plus, les circonstance sont exceptionnelles, avec la sortie des nouvelles consoles et des nouvelles cartes, le tout à la veille de noël. On verra dans 6 mois si la mariée est toujours aussi belle. Pour rappel cela fait deux ans que la RTX 2080 est sortie et en deux ans seule une poignée de jeux bénéficie vraiment du RT.
On verra bien ce que cela donnera pour la suite mais pour l’instant rien n’est acté.

Bien vu, il n’y a rien au niveau température, ni au niveau nuisance sonore ou overclocking, ou SAM. Ah si, pardon, mention est faite du SAM mais surtout pour rappeler que ce n’est pas une création d’AMD et que Nvidia devrait bientôt l’utiliser aussi. Était ce vraiment pertinent ?
De plus, tout le monde s’extasie sur l’originalité du système de refroidissement des cartes Nvidia FE, comparé au classicisme des cartes AMD, tout en oubliant de préciser que le refroidissement FE de Nvidia ne sera jamais utilisé par les fabriquant car beaucoup trop cher. Du coup mentionner qu’AMD a réussi à faire classique MAIS efficace aurait été de bon ton.

Absolument, et j’ajouterai que Microsoft et Sony utilisant un dérivé de leur bébé sur console : les devs vont pas hésiter : je ne passe Pas par la case royalties pour NVIDIA, j’optimise pour un constructeur de carte graphique. Vulkan utilise les rt sur le successeur logique d’openGL qui est multiplateforme, plus stable et fonctionnel que directx12 et plus performant bah bref c’est tout vous. Aujourd’hui l’important c’est l’économie donc dx12 va être la dernière plateforme avant que windows coule (oui je m’avance là).

Pour le test : le fidélité FX n’est pas disponible mais vous comparé AMD sur du matériel Intel sur la version d’avril de windows 10 ??? Face aux NVIDIA avec et core + DLSS. NVIDIA sans le dlss ça donne quoi ? Et la ex 6800 xt sur une machine Full AMD ça donne quoi ? Concrètement une RTX 2080 sur ac Valhalla peine a dépassé les 75 FPS en 1080 p. Donc autant dire que les RTX 3xxx qui font a peine mieux sont saturés et ont du mal à tenir la distance faute de pilote optimisés.

1 « J'aime »

C’est du marketing en premier lieu :

  • Déjà parce que c’est un premier jet accompagné d’annonces grandiloquentes.
  • Deuxièmement parce que ce n’est pas rationalisé dans des interfaces communes utilisables par tous au sein des grandes librairies.
  • Troisièmement parce que certains comme Crytek ont montré qu’il est possible de faire du raytraycing temps réel sans GPU pré-câblé pour. Car les GPUs récents possèdent déjà une capacité de traitement tout à conséquentes.

Enfin ce n’est pas ça qui fait le succès et le gameplay, le plaisir de jouer.

L’habit ne fait pas le moine (bon vieil adage :)).

En gros c’est un peu moins chère qu’une 3080 et c’est un peu moins performant.
Donc le meme rapport prix /perf que Nvidia, mais avec du AMD…
Donc autant prendre du Nvidia qui sera toujours mieux niveau driver

« et ont du mal à tenir la distance faute de pilote optimisés. » : toujours la faute aux pilotes… AC Valhalla est opti avec les orteils d’un unijambiste, comme la majorité des jeux d’ubi. Et toujours concernant ce dernier, leurs jeux sont opti AMD Ryzen/Radeon. Enfin, ce ce qu’ils disent.

@pecore : et pourtant suffit de voir que la carte , à peine dispo , est déjà « out of stock » , et on ne me fera pas croire que tout ceux qui achetent une 3090 aujourd’hui vont bosser avec !!!
je sais bien qu’une 3090 pour jouer c’est too much , mais elle se vends quand même (et à des prix délirants pour la plupart des customs à presque 2000€) finalement , on se demande si ceux qui ont pu récupérer une 3090Fe à 1549€ ne sont pas les mieux lotis en fin de compte ! (surtout qu’en terme de refroidissement , la FE surpasse bon nombre de customs cette année ! )

Ce n’est pas la première fois que j’entends cette histoire de drivers dans les comparatifs AMD/Nvidia. Quelqu’un pourrait il m’expliquer ce qui fait que Nvidia est toujours cité en exemple ? Est ce à cause des optimisations pour certains jeux ?
Pour info c’est une vrai question, pas une critique déguisée.

20 ans (ma 9700 avait moins de problème que ma Geforce 1) que ce troll circule. Pour avoir eu les 2 en alternance pour, l’utilisateur lambda c’est du pareil au même.
PS: mes driver nVidia qui refusent toujours de constater que mon écran est nativement 10 bits ça me gave, jamais eu ce problème avec les rouges. Cette histoire de drivers n’a aucun fondement pour le quotidien et je constate même qu’avec AMD ceux ci se bonifient avec le temps. Pour les pros c’est peut-être une autre histoire.

Ah bon, c’est juste un troll, rien d’autre ? Ok, merci pour l’info.

@Aristote
@pecore

bah si c’était justifié,

… l’époque des ATI9700, c’était l’heure de gloire des drivers non-officiels (Omega, DNA, Neutral,Spirit et autres Unian), des tweak tiers (3danalyze) pour combattre les micro-stuttering et les plantages, des softs tiers de désinstallation (driver cleaner), on avait des instabilités dès le moindre oc du bus agp, ajoutez des sorties TV floues, un équivalent nview à peine naissant. quand tu venais d’une Geforce 4, tu découvrais un monde où il fallait avancer avec une machette à la main.

Sorties en 2002 - ci-dessous, en 2005 on se demandait toujours quels drivers exotiques il fallait aller gratter pour souffler un peu :

Exactement, depuis je me suis juré de plus toucher à du ATI/AMD

Pour les stocks je penses surtout AMD c’est fait Submerger.(XBOX, PS5, RYZEN 5 et nouvelles RADEON) tous ont un probleme de stock.
Puis conaissant AMD faudra refaire un test dans 3 mois.Car à la différence NVIDIA il optimise leurs CG petit à petit. (EX 5700XT qui est maintenant supérieure RTX2070)

Si on en est à parler de modèles aussi vieux, n’oubliez pas qu’à l’époque des Geforce FX, c’était la fête aussi chez nvidia en termes de drivers (j’avais une FX 5700).

En gros, j’en étais presque à installer un driver par jeu …

C’est rigolo, parce que moi c’est l’exact inverse …
Depuis cette époque, je n’ai plus eu que du ATI / AMD.