Commentaires : RDNA 4 : l'impasse d'AMD sur le très haut de gamme se confirme

En fait, toute cette « course » à la puissance vient occulter un truc : l’usage. Car oui, sur le papier, on va dire que cette future 8800XT serait tout juste au niveau d’une 4070ti super sauf que justement une 4070ti super suffit plus que largement à 99% des usages gaming, surtout quand on utilise les technos de upscalling.
Le principal c’est le rapport qualité/prix des GPU ainsi que la chauffe et la conso.
Moi qui bosse dans l’automobile c’est comme si l’ensemble de la presse auto se contentait juste de comparer les modèles les plus extrêmes et en faire des valeurs étalon pour tout le reste.
Honnêtement, qui possède une 4090 ici ?

2 « J'aime »

J’avais acheté une 7900 XTX, 1300€ à la sortie pensant qu’Nvidia abusait. J’ai vite déchanté… je n’ai eu que des problèmes hardware, au delà des 100hz freeze permanent ! Impossible de jouer de manière confortable. Problème reconnu et récurant sur une grande partie des premiers modèles sortie ! Dédommagement, un simple bon d’achat. Super, je suis rester avec ma RX580 pendant 3 mois avant de me faire rembourser !!! En attente d’analyse.

Après cette mésaventure, je me suis tourné vers la 4090, ben écoute, c’est juste la meilleur, suivi permanent, optimisation irréprochable.

Tu dis qu’elle consomme énormément, en réalité faut se renseigner un peu :wink: plusieurs tuto et test explique que bridé à 60% comme je l’ai fait, fait baisser sa consommation drastiquement, beaucoup moins au final qu’une 7900XTX à puissance supérieur ! Oui en effet, à 60%, elle perd que 1 à 3% d’fps soit ridicule sur une échelle de 100 !

Comme tu peux le vois sur les screens, je joue au dernier Horizons (en 3440x1440) tout au maximum sans le DLSS activé ! en moyenne 90-125 fps et sur ma tv 120hz 4k, aucune différence !

Bref, tout ça pour dire qu’AMD pour moi en carte graphique c’est fini ! Le FSR est vraiment sympa, là dessus on peut pas le nier mais pour le reste c’est 0.

Pour les processeurs, AMD reste les meilleurs. A bon entendeur.




C’est décevant…

Non seulement la nomenclature chez AMD est imbitable alors que chez Nvidia c’est bien plus cohérent et compréhensible.

Ensuite AMD ne propose rien de concret face aux verts :

  • Pas de technologies plus performantes, que ce soit le FS3 ou leur Frame Generation maison, les tests montrent qu’elles sont inférieures au DLSS 3.5 et au Frame Generation d’Nvidia
  • Rien pour tenir tête aux 4080 et encore moins aux 4090 en rasterisation

C’est dommage parce que côté CPU, AMD est au top de sa forme (même si j’ai hésité après avoir été sous un 5950X avant de repasser sous Intel avec un 14900K).

D’un autre côté il semblait que d’après les rumeurs Nvidia attendait de savoir ce qu’allait faire AMD pour déterminer si oui ou non ils devaient accélérer la sortie de leur génération 5000.

Si ça peut repousser cette génération à 2025 ça m’arrange pour mettre ce qu’il faut de côté pour basculer sur une 5080 ou une 5090.

1 « J'aime »

Pour le reste je ne sais pas, mais cette phrase est incorrecte. Les cartes AMD sont bien plus puissantes à prix équivalent et bien plus flexibles que les NVidia en OpenCL => pour les pros, ça dépend de leur utilisation!

Le format <génération> de AMD est-il très différent du format <génération> de NVidia? Vraie question hein, je ne comprends pas ta remarque…
Encore si tu parlais de la gamme précesseur AMD avec des numéros de gamme incohérents entre les portables et les desktops (voir même dans la gamme desktop)…

Tout à fait, et c’est pour ça que le positionnement tarifaire est différent, avec un meilleur perf/prix pour compenser les fonctionalités « annexes » moins performantes.

Et c’est assumé. AMD n’a pas les moyens de proposer un modèle « prestige » qui ne se vendra quasiment pas, n’a qu’un intérêt moyen pour leur coeur de cible (les gamers) et donc leur sera particulièrement couteux. C’est peut-être une erreur marketing, mais ça a du sens.

À vue d’oïl, c’est sûrement d’% des joueurs qui ont une 4090, donc ils peuvent laisser ce marché de niche au vert, c’est du côté de l’entrée / milieu / haut de gamme qu’il faut attaquer!

La nomenclature AMD est encore plus imbittable sur les CPU… Vas comprendre leurs histoires de génération 8000 qui sera à la fois sur Zen4 et Zen5 avant de basculer sur la 9000 en cours de route tout en continuant la 5000.
Idem pour les versions Laptop … entre les 7735 qui sont des « vieux » les 78xx qui sont « nouveaux » et qui sont tous déclinés dans des versions de TDP plus ou moins adaptés à des usage bureau ou jeu léger

Non, le RT n’est (plus) AMD pour les consoles : Sony a vu le désastre avec le FSR de l’APU AMD de la PS5 et a décidé de faire le travail lui-même pour la PS5 Pro avec le PSSR qui est une sorte de DLSS . On peut penser que le PSSR sera dans une puce dédiée (RV fin de l’année) dans la nouvelle puce AMD (qui double les coeurs qui passent de 36 à 60).

Ce qui n’a qu’un rapport indirecte avec le Ray Tracing qui n’est pas une méthode d’upscale d’image mais de calcul de projections de rayons.

Le rapport est simplement qu’avec une méthode d’upscale éfficace, on peut baisser la résolution interne du rendu, donc permettre au GPU de dégager assez de puissance pour calculer plus efficacement les rayons. Mais en soit, ce n’est pas lié.

Si AMD vient avec une solution économique et éfficace, Sony ne dira pas non. Microsoft encore moins.

On vient de te dire qu’AMD n’a aucune méthode et que Sony a décidé de faire son propre système : le PSSR.

On vient de te dire que tu mélanges deux truc qui n’ont pas de rapport.

On n’a pas dû acheter la même alors, surtout que la mienne a couté 200€ de moins.

Le seul problème que j’ai eu, c’est lorsque j’ai voulu utiliser le Ray Tracing pour la première fois : extinction du PC au bout de quelques minutes de jeu. Quelques recherches et cogitations plus tard, j’ai trouvé le problème : mon alimentation LUX merdique ne suffisait pas pour le RT et en plus, j’aurai dû m’y attendre. À ma décharge, je ne savais pas que le RT demandait autant de puissance, ne l’ayant jamais utilisé.

Une Corsair RM1000e plus tard, tout était réglé et la carte fonctionne aux petits oignons. Comme quoi les problèmes qu’on impute parfois au matériel viennent parfois simplement de l’utilisateur.

Pardon ? :astonished:

la XTX dépasse la 4080 en rastérisation, tout en étant 400$ moins chère en tarif de lancement. Depuis, l’écart de prix s’est (un peu) resserré, mais la différence de performance demeure.

La vérité, c’est qu’au-delà des benchs et du baratin technologique, il n’y a au final qu’un seul et unique critère de jugement : vos jeux tournent-ils bien, ou pas ? ^^

Personnellement, j’ai des cartes ATI-AMD depuis + de 25 ans (je me rappelle d’une Rage 128 dans les années 90, mais pas si j’ai eu d’autres cartes ATI avant elle), j’ai été satisfait de toutes et je n’ai jamais eu de problèmes.

Mais il est vrai que j’ai presque toujours eu les meilleurs modèles au fil des générations : 9700 Pro, X850 XT, X1950 XT, HD5870, R9 280X (HD7970 rebadgée) et actuellement RX 6750 XT.

Tu tires les conclusions qui t’arrangent et tu montres surtout ta partialité et ton manque de connaissance sur le sujet. Le FSR 2 marche tout à fait bien, les tests et les retours utilisateurs l’ont démontré. Le fait que presque tous les fabricants de consoles se tournent vers AMD est aussi un indicateur.

Il peut y avoir 36 raisons conduisant Sony à utiliser sa propre solution sur puce dédiée : kit de développement optimisé, faire évoluer la console sans changer l’APU, installer une différenciation plus importante entre la Playstation et les autres plateformes de gaming et j’en passe.

En tout cas, aucun des articles sur le PSSR ne fait état que Sony développerait sa solution pour des raisons d’insatisfaction vis-à-vis du FSR, ça, c’est ce que toi, tu veux y voir. D’ailleurs, vu la proximité entre les deux noms, il y a de fortes chances que le PSSR s’inspire beaucoup du FSR, qui, je le rappelle, est open source.

Non, je tire des conclusion logiques. Le FSR est une catastrophe. Tout le monde le sait il suffit de voir les images. Sony ne peut pas se permettre de laisser le RT de côté. Ni MS d’ailleurs, qui vont sans doute, faire pareil. Ces fabricants se tournent vers AMD, car ni Intel, ni Nvidia ne veut proposer de produits ; ça ne les intéresse tout simplement pas : ils savent que les exigences tarifaire de MS et Sony pour les consoles sont très serrées : il n’y a que très peu de marge à se faire. Sony et MS n’ont pas d’autre solution qu’AMD : ils font donc avec.
Si le FSR (qu’il soit open source ne change rien à l’affaire…) donnait satisfaction, Sony ne se serait pas ennuyé à dépenser de l’argent pour faire sa solution maison avec (peut-être) une puce dédiée (comme Nvidia) dans le GPU AMD , puce qu’AMD ne veut/peut pas faire (argent, personnels, etc.). Les entreprises ne dépensent pas d’argent pour rien comme tu tentes de le faire accroire. Le FSR c’est la mise à l’échelle du pauvre, Sony l’a bien compris et s’est mis au travail : résultat fin de l’année.

Voilà, c’est tout ce qui compte

C’est marrant, moi c’est exactement l’inverse : le nVidia ne fonctionne pas bien chez moi alors que les produits AMD sont justes irréprochables !

Je suis moi même possesseur d’une RTX 4090, j’ai dans mon entourage 3 joueurs PC qui ne sont pas de gros geeks boutonneux et deux ont également une RTX 4090 et le troisième une 4080.

Alors soit je suis dans un nid et une anomalie, soit les 4080 (du moins) ne sont pas si ne niche que cela et les 4090 pas hors de portée des joueurs qui veulent se mettre bien en 4K avec du RT et du Full Ultra.

A sa sortie la RTX 4090 FE c’était 1600€, des gens paient des iphones ce prix là sans trop se poser de question, alors ça fait relativiser la niche.

Ces cartes sont bonnes pour le prestige de la marque et pour ancrer dans la tête des joueurs que les verts c’est les meilleurs (et ça marche), elles sont bonnes pour les marges (Nvidia marge à mort sur le HDG), et ne doivent finalement pas se vendre si mal que ça même si évidemment ça n’est pas du tout le cœur de la gamme je le sais.

Je trouve donc pour ma part, mais je ne suis pas Lisa Su, que c’est une bêtise de ne rien mettre en face d’une 4080, surtout quand tu as démontré tes capacités d’innovation dans le domaine du CPU, que tu as accès aux bonnes finesses de gravure et que tu as enfin du FSR3 et du Frame Generation maison qui ne sont pas aussi bons que chez les verts mais peuvent faire le café en vendant le tout à un tarif un peu plus raisonnable.

Wahou 5,3% d’écart en moyenne en rasterisation tout en sachant qu’il a fallu attendre comme d’habitude que les drivers mûrissent et que le DLSS reste bien supérieur au FSR et le Frame Generation d’AMD est encore loin (et le restera), de celui des verts.

Alors ok c’est moins cher hein, mais tu dois accepter que le RayTracing ça le fera moins bien, et que les solutions d’upscaling qui doivent te permettre de faire durer un peu plus longtemps ton GPU seront qualitativement moins performantes.

Perso le choix est vite fait, et les 400€ de différence tu les as vu où ? Sur LDLC une 4080 Super Gygabyte c’est 1219€, et la Gygabyte 7900XTX est à 1179€, soit 40€ de différence….

Ton article lui-même lors de sa sortie ne pointait même pas une différence de 200€.

L’écart de prix ne s’est pas un peu « resserré », il est devenu carrément inexistant.
Et là on compare une XTX avec une 4080 « Super », pas une 4080 de base.

Du coup y’a même pas de réflexion pour 40€ tu prends la 4080 si t’es logique…

Ben non, tout le monde ne le sait pas, ou alors, il va falloir donner des sources qui attestent de cela. Je parle de ma propre expérience et de celles d’autres personnes de mon entourage et elle est positive, tout comme les articles que j’ai lus sur le sujet.

Mais je n’ai pas de console, alors je ne peux pas juger de la qualité des jeux dessus. Je sais en revanche que si on fait un jeu trop gourmand pour la puissance de l’appareil, puis que l’on applique un upscalling très agressif pour le rendre fluide, il y aura perte de qualité, forcement. Mais cela ne sera pas la faute du FSR, il ne peut pas faire des miracles non plus et le DLSS ou le XeSS auraient exactement le même problème.

Je le redis, pour l’instant, je n’ai vu aucun article ou vidéo disant que le FSR est une « catastrophe », je n’ai entendu personne s’en plaindre et je n’ai pas vu non plus d’article disant que Sony développait le PSSR pour palier aux limitations du FSR. Et toi ?