Pour l’instant que sur quelques jeux mais j’imagine que leur but est de rendre ça dispo sur un maximum de jeux à terme. Et vu comme Nvidia a souvent réussi à imposer ses technos propriétaires (les HairWorks et co), ils ne devraient pas avoir de mal à le faire sur le DLSS.
avec de la GDDR6 c’est un cauchemars en terme de câblage , de pcb etc… , les cout de production en pâtisse et la carte deviens cher. je pense que c’est pour avoir le meilleur ratio prix/perf , la 5700XT est égal à une vega 2 qui pourtant dispose d’un bus mémoire bien supérieur. la nouvelle architecture est plus efficace , même avec un bus standard.
La 5700XT c’est au niveau de la 2070 Super, pas entre la 2060 et la 2070
AMD intègre des optimisations dans RDNA 2 qui permet (en théorie) d’avoir des performances aussi intéressante qu’avec un bus plus grand. (je sais plus comment ça s’appelle, infinity cache ou un truc comme ça.).
Les bus sont plus petit qu’avant car c’est beaucoup moins cher et moins complexe à gérer. La fréquence des mémoires sans cesse en hausse compense le besoin d’avoir des bus complexe. Et les controller étant plus petits, ça laisse plus de place pour les unités de calculs sur le die.
On ne le saura jamais n’est ce pas. Je vous invite néanmoins à constater que je ne suis pas le seul à trouver que l’article manque de points de comparaison et cela n’aurait engagé à rien de comparer des spécifications techniques sans s’avancer sur leur portée pratique. Je maintiens donc ma remarque et je signe.
Très peu de différence entre une 2060S et une 5700XT sous G3D Mark. 16’300 pts pour la première, 16’600 pour la seconde. La 2070S dépasse les 18’000 pts.
Le prix joue cependant en faveur de la 5700XT y a pas photo si on parle de rapport perf/prix.
Tableau inutile… oui et non. C’est quand même à la presse spécialisée de gratter la couche marketing pour révéler « le vrai du faux ». Autant Compute Unit est quelque chose de représentatif dans le domaine micro-architectural, autant « Tensor Core » et « RT Core » c’est le bullsh… enfin le marketing Nvidia. Il est là le travaille critique.
Cela dit, depuis la disparition des sites français très spécialisés dans le hardware, les gens compétents dans le domaine (en France du moins) manquent à l’appel… 
Non mais les bench ça ne représente pas la réalité. Regardes tous les tests, c’est du calibre de la 2070S
Ahah les Voodoo
De bons souvenirs avec l’ère des Matrox (Mystique et Millenium).
Par ailleurs, je pense qu’il y aurait un marché potentiellement exploitable pour le retour de cartes graphiques « d’accélération » dédiées pour VR ou la 4K, en soutien d’une carte graphique principale de milieu de gamme. Le coût global serait amorti et moins élevé qu’une carte « très haut de gamme » ou deux cartes identiques (SLI/Crossfire).
Mais j’imagine que cela apporte aussi bien des contraintes en développement logiciel pour correctement exploiter ce potentiel, surtout quand on voit justement le peu de succès des CrossFire ou SLI (certes plus contraignantes pour la compatibililité).
Pour cela, il faudrait un nouveau joueur prêt à remettre en cause Nvidia et AMD.
Comme je n’achète jamais les GPU dernières générations, je suis content de ses futures cartes (autant AMD que Nivdia). Cela fera toujours baisser le prix de la génération actuelle qui me suffira amplement pour mes besoins, et toujours dans l’optique de ne pas dépenser plus de 350$.
J’ai fait cela avec la HD 6870 (2 Gb), la HD 7970 OC (3Gb), puis la RX 580 OC (8Gb), et je changerai probablement pour la RX 5700 XT ou RTX 2070 Super dépendamment des prix.
Ho oui les 3Dfx, matrox and co. La belle époque
. Les voodoo 3 étaient plus longues il me semble. Déjà avec 2 ventilos a l’époque c’était le top. Aujourd’hui les CG sont carrément des mini pc. Elles sont devenues énormes avec un système de refroidissement a l’avenant …et une consommation électrique hallucinante. Bientôt il faudra une centrale nucléaire pour faire fonctionner son pc .

Marrant j’ai à peu près le même parcours. Mais je privilégie AMD, venant du monde libre.
Il faut bien voir que les cartes graphiques actuelles font aussi chauffage. C’est quand même un sacré plus en hiver :o
@Pernel
Le soucis va surement venir du raytracing, cela s’annonce en dessous de Nvidia. Acheter une nouvelle carte graphique a ±800$ et pas de raytracing sur Cyberpunk 2077 ca craint.
Je ne vois pas ce qui te fais dire que le Ray Tracing va être en dessous de Nvidia. Ce sera peut être le cas mais là tout de suite rien ne permet de l’affirmer il me semble. Et je doute BEAUCOUP que les cartes AMD coutent 800€ ou plus.
En dessous ? Il n’y a pas de tests a se sujet …
Si CP2077 n’a pas de RT non proprio c’est pas la faute d’AMD mais de l’accort NV et CDPR.
Il y a déjà des analyses online de l’architecture AMD. Biensur ce ne sont que des speculations.
Vu la stratégie de prix sur les processeurs Ryzen, l’equivalent de la RTX 3080 va surement être une poignée de $ moins chere je dirais 50$. AMD va surement proposer un peu plus de ram pour se différentier. Peut être la diffence peut se jouer sur une carte haut de gamme 200 ou 300 $ moins chere que la RTX 3090.
Bravo, 16Go quasi partout et minimum 12Go, Nvidia devrait en prendre de la graine plutôt que de faire les radins sur la mémoire pour pouvoir nous faire re-passer à la caisse dans 3 ans !