Commentaires : AMD RDNA 2 : vers un gain de performances de près de 50% par Watt

Le RDNA 2 arrive à la fin de l’année sur PS5 et Xbox Series X, ainsi que sur ordinateur. AMD s’était jusqu’ici montré peu bavard sur cette technologie, nous en savons désormais un peu plus.

1 « J'aime »

je veux une 5600M ou 6600M dans mon ultrabook :slight_smile:

AMD a su s’imposer face à Intel parce qu’Intel n’a pas su proposer de grandes nouveautés sur l’architecture PC. Ils sont restés sur le status quo de leurs gravures en 10nm et leurs processeurs puissants, mais ultra-onéreux.

Contrairement à nViDia qui n’est jamais resté sur ses acquis et qui a tenté de proposer des expériences nouvelles tout en gardant un prix attractif, enfin aussi attractif que le permet le marché. Donc AMD pour rattraper va devoir faire des efforts assez énormes sur les technologies proposées. Ça en prend le chemin mais j’ai bien peur qu’ils n’arrivent pas à combler le fossé comme il faut !

@PirBip
Intel a voulu faire le plus d’argent en minimisant la recherche et développement pour maximiser le profit, donc AMD les a rattrapé en effet, or NVidia ne passe pas son temps a chercher de nouvelles technologies, ils font très peu d’avancées entre les générations (mise a part le ray tracing mais concrètement c’est mineur) et se reposent pas mal sur leurs lauriers, mais ils continuent, doucement et surement d’avancer, contrairement à Intel, mais AMD continue aussi a avancer aussi vite qu’ils peuvent sur les cartes graphiques et niveau architectural sont au même stade que NVidia, leur seul problème est logiciel: car ils ont étés si longtemps a la ramasse, les développeurs indés et bcp de technologies n’ont rien développé pour les cartes graphiques AMD. C’est là le réel problème: une carte graphique AMD est d’un niveau performance bonne, mais uniquement sur papier, avec des drivers en carton et un support à la ramasse, l’expérience d’avoir une carte graphique AMD n’est pas aussi bonne qu’elle pourrait l’être
donc tant que ce problème ne sera pas réglé aucun doute que je ne recommandait pas une carte graphique AMD et que je resterais chez NVidia, après si ça change on verra bien qui propose la meilleure expérience.

Concrètement, à part réduire la taille de gravure et mettre plus de mémoire, tu ne peux pas faire grand chose pour améliorer les cartes graphiques.
On pourrait ajouter des couleurs sauf que le nombre de couleurs actuel est déjà suffisant pour satisfaire presque entièrement l’oeil humain. Les couleurs et leur intensité est calculée en 24 bits (8 par couleur, 32 bits si on utilise les calculs de transparence) Les moniteurs d’aujourd’hui sont désormais capable de travailler en 30,36 et 48 bits de couleur (soit respectivement 40,48 et 64 bits avec la transparence), et cela est largement suffisant pour arrêter quelques effets de bande mineur avec les dégradés de vert au bleu. M’enfin de là à en avoir besoin pour le calcul ?

De même, les technologies graphiques sont assez limitées, il est compliqué de mettre en oeuvre une nouvelle technologie de calcul. Le voxel, modèle propre à des jeux peux fluides et peu détaillés au final demanderait énormément de ressources. Le Raycasting, technologie utilisée dans Doom, lui aussi trouve ses limites lorsqu’il s’agit de faire du dessin complexe. Il reste donc la Rasterisation, technologie déjà longuement utilisée, ou le Raytracing, qui permet à peine de faire tourner des jeux avec peu de polygones avec une quantité de mémoire monstrueuse pour un résultat limité (malgré le fait qu’en combinant le raster et le raytracing, on peut avoir des jeux plus beaux qu’avec du raster et des astuces de reflets seuls).

Récemment, les puces RDNA2 qui équiperont les PS5 ont fait tourner le moteur Unreal Engine 5 qui exploite le raytracing, et les rendus sont vraiment pas mal. Pour le moment, le moteur tourne à 30FPS en 1440p, sans énormément d’IA et très peu d’animation. Concrètement, à part tenter d’aller vers l’atomique (voxel) en démultipliant les capacités mémoire, j’ai du mal à voir où les cartes graphiques peuvent s’améliorer. Peut-être avec des micro-optimisations à base d’Intelligence Artificielle ? Ou avec un partage de puissance de calcul inter-utilisateurs avec une optimisation des mémoires non-utilisées ? Dans tous les cas, la technologie de demain reste à inventer. Et je crois qu’on fera tous un WAAAAH quand la bonne idée aura été mise en oeuvre.