Commentaires : RDNA 4 : l'impasse d'AMD sur le très haut de gamme se confirme

La carte graphique Radeon RX 8800 XT pourrait se caler entre les actuelles RX 7900 GRE et RX 7900 XTX.

Heureux possesseur d’une RX 7900 XTX, je peux en attester : c’est largement suffisant pour tout type de jeux et ce sera encore plus vrai si les technologies d’upscalling continuent de se perfectionner, comme cela semble être le cas.

Alors ceux qui arriveront à se procurer une carte à la puissance équivalente pour 50% du prix ne seront pas lésés sur la marchandise, surtout que la carte aura sans doute des choses en plus par rapport à la génération précédente, en dehors de la seule puissance de calcul.

7 « J'aime »

Tu as quoi comme modèle de 7900xtx ? Une hellhound ?

Ne pas concurrencer le THDG ca peut se comprendre (et a part pour l’image, l’intérêt est limité), par contre un gain de puissance conséquent entre 2 générations me parait le minimum.

« La carte graphique Radeon RX 8800 XT pourrait se caler entre les actuelles RX 7900 GRE et RX 7900 XTX. » > Ca représente quoi ? 15% ? Si oui, c’est bof pour un saut de génération. Surtout si en même temps le prix monte de 5/10%.
Il faudrait aussi (et surtout ?) qu’AMD gère mieux le RT.

sauf si amd utilise deux die de 8800 colles pour faire unee 8900.

Je ne pense pas que ce soit leur priorité, ceux qui aiment le RT achètent Nvidia et ceux qui n’aiment pas ça et ne s’en soucient donc pas achètent AMD. neutre

2 « J'aime »

Une XFX Merc 310.

D’autant que cette histoire sur le RT qui ne marcherait pas avec AMD commence à ressembler à ce troll récurant sur les drivers AMD qui étaient, soi-disant, pourris.

Je viens de finir Hellblade avec le RT activé, en 1440p tous détails à fond et FSR en mode ultra qualité. Je tournais à 150 fps en moyenne sans problème.

2 « J'aime »

Pas faux. Qu’ils améliorent le FSR et le Frame Gen alors, car ça c’est vraiment utile, quoi que sans RT … beaucoup moins ! :slight_smile:

A un moment, de toutes façons, la course à la puissance brute va s’arrêter. Les dernières puces comme la RTX490 sont déjà énormes, requièrent une consommation gargantuesque et coûtent un bras. Doubler le nombre de cœurs (peu ou prou ce qu’il faut faire pour doubler la puissance de calcul) n’est pas raisonnable, en tout cas pour jouer.

Il me semble que l’architecture GPU dans son principe même arrive au bout. Il faudrait autre chose, c’est à dire d’autres algos pour représenter un monde en 3D, et peut-être aussi arrêter de rêver au photoréalisme qui de toutes façons est inatteignable (et pour moi pas souhaitable).

2 « J'aime »

Du troll sur AMD ?

Nan, impossible. :joy:
Je rappelle juste en passant que d’après certains, cela fait 25 ans (et je suis gentil) que AMD doit « fermer dans l’année à venir ».

Je vous laisse méditer sur cette dernière phrase. :laughing:

4 « J'aime »

En fait, il n’y pas de mieux ou moins bien au sujet du RT, ça relève simplement des goûts et des couleurs. neutre

Personnellement, j’ai regardé beaucoup de vidéos et d’images comparatives de nombreux jeux avec/sans RT et je préfère systématiquement sans. L’excès nuit en tout et c’est valable aussi pour les reflets, je ne vois pas l’intérêt d’avoir par exemple des sols au rendu poli miroir.

C’est particulièrement flagrant dans le jeu Control, les sols sont inutilement brillants (et en passant, je n’ai jamais vu de sols pareils dans aucun bâtiment dans la réalité), beaucoup d’objets sont trop lumineux, la différence ne se voit même pas sur bien d’autres, à moins de passer son temps à inspecter le décor à la loupe, ce qui n’est pas vraiment le but de la plupart des joueurs.

Bref, certains considèrent le RT comme indispensable et d’autres non. ^^

Control

https://youtu.be/i83sW90aAkY?si=unWd_Oal_zU4vQgx

3 « J'aime »

Et sinon NVIDIA des prix décent avec plus de 8go de RAM … Parce que perso, l’IA générative en local aime bien ça la RAM… Les cartes AMD ne sont pas privilégiées non plus pour ça (pour l’ia en local j’entends)… Et à par de rares exceptions ce sont des radins en RAM chez nvidia. Une équivalente à la 4060 Ti 16go à 400 balles ce serait parfait par exemple…

Mon Cyrix P166+ et ma 3DFX ont encore de la marge.

5 « J'aime »

Le problème c’est que la 4060ti est franchement pas terrible et ne vaut certainement pas 400€ (sachant qu’en plus c’est une fiche technique de 4060 à l’intérieur), ses principaux problèmes étant la faiblesse de sa puce graphique et la trop faible largeur de son bus.

1 « J'aime »

Le RT c’est loin d’être uniquement des reflets.

Des sols aussi brillants, en vrai, on en voit. Mais dans la réalité, personne ne fait attention a ce genre de trucs. Le moindre écart entre réalité et rendu 3D va de toute facon sauter de plus en plus au visage. L’uncanny valley c’est pas que pour les visages.

Et dernier truc important. Le RT reste évidemment une priorité pour AMD ne serait-ce pour espérer garder le marché des consoles à la prochaine génération sans quoi ça lui ferrait un sacré trou dans le budget.

1 « J'aime »

Quitte à avoir de la ram plus lente d’ailleurs pour l’IA locale. Que ça tourne moins vite, mais que ça tourne au moins!

Pour l’avoir vu tourner je la trouve largement suffisante pour mes besoins. J’ai encore une bonne vieille 1080 qui tient le coup mais ça ne durera pas.
On s’est bien fait mettre côté tarif depuis le minage et la période covid je te l’accorde.

Une 8800 XT aussi bonne qu’une 7900 XT ? Un scandale ?
Quid de la 7800 XT plus ou moins aussi bonne qu’une 6900 XT ?
Ca a toujours été comme ça, fausse news.
Et pour ceux qui pensent que l’intérêt de Nvidia, ce n’est que du RTX, ne vous mettez pas à la 3D, à l’IA, au montage professionnel, au VFX à Unity et à Unreal.
AMD c’est fait pour jouer uniquement, Nvidia pour les pros… ou les curieux.

Dans votre commentaire, vous indiquez ce qui suit :
𝗦𝘂𝗿𝘁𝗼𝘂𝘁 𝘀𝗶 𝗲𝗻 𝗺𝗲̂𝗺𝗲 𝘁𝗲𝗺𝗽𝘀 𝗹𝗲 𝗽𝗿𝗶𝘅 𝗺𝗼𝗻𝘁𝗲 𝗱𝗲 𝟱/𝟭𝟬%

Mais avez-vous lu l’article jusqu’au bout ?
Il est précisé ce qui suit :
𝗹𝗮 𝗥𝗫 𝟴𝟴𝟬𝟬 𝗫𝗧 𝘀𝗲𝗿𝗮𝗶𝘁 𝗮𝘂 𝗻𝗶𝘃𝗲𝗮𝘂 𝗱𝗲 𝗽𝗲𝗿𝗳𝗼𝗿𝗺𝗮𝗻𝗰𝗲𝘀 𝗱𝗲 𝗹𝗮 𝗥𝗫 𝟳𝟵𝟬𝟬 𝗫𝗧𝗫, 𝗺𝗮𝗶𝘀 𝗽𝗼𝘂𝗿 𝟱𝟬 % 𝗱𝗲 𝘀𝗼𝗻 𝗽𝗿𝗶𝘅

Par ailleurs, je présume que nous verrons certainement une amélioration de la consommation grâce aux évolutions technologiques.
Cela me semble logique…
Contrairement à la tendance que l’on observe depuis plusieurs années, où les alimentations ont dû devenir de plus en plus puissantes, pour permettre aux différents acteurs comme Intel, Nvidia et AMD de gagner en performance, tout en devenant de véritables gouffres énergétiques pour les consommateurs, nécessitant des alimentations de plus en plus grosses (500w 1000w 1500w voire 2000w si ce n’est plus).

Voir l’article de Vincent RAMARQUES intitulé « 2000 Watts pour une alimentation de PC… »