Fuites et autres bruits de couloir n’attendent jamais les annonces officielles. AMD et les cartes graphiques RX6000 viennent d’en faire les frais.
… Quand je pense à la taille des premières cartes graphiques. En comparaison, ce qu’elle a dans la main paraît monstrueux
la 6800 xt et la 6900xt sont vraiment tres proche et ne devraient pas avoir plus de 5-7% d’ecart … a voir si le prix est tres inferieur
j’aurai plutot dit ~10/12% avec 8CU de plus et une fréquence plus haute
That’s what she said …
CMB XD
Il faut avouer que la puissance a augmenté grandement.
Heureusement étant donnée la taille des CG maintenant .
C’est juste que quand je vois mes anciennes CG dans mes cartons, en comparaison des nouvelles…
Si le prix est correct, elles ont l’air d’être une bonne alternative par rapport à celle de Nvidia.
la question que je me pose c’est pourquoi avoir choisi un bus mémoire à seulement 256bits et pas plus comme Nvidia? C’est un truc qui a vachement diminué aux fils des années ça. Je me rappel à l’époque de ma GTX 285 (à la préhistoire), les bus étaient en 512bits, et ont est descendu petit à petit sur 384 et 256.
Je ne me moque pas du tout! J’ai pris cette carte car je sais qu’elle a marqué beaucoup de joueurs et habite encore le petit cœur de gamers de la première heure
Et puis, rien que son nom est une tuerie !!!
Ces chiffres ne me parlent pas du tout. Si on faisait un parallèle avec les rtx 3000 on se positionnerait où à vue de nez (même si bien sûr on a pas toutes les caractéristiques)
C’était de l’entrée de gamme la Banshee. La voodoo 2 etait déjà bien plus grosse sans partie 2D. Maintenant faut bien se rendre compte que ça n’a plus rien a voir entre des accélérateurs graphiques et des GPU actuels extrêmement complexes et surtout qu’il faut massivement refroidir sous peine de foutre le feu a la baraque. Mais si on prend par exemple certaines 1660 super avec un seul ventilo et mois de 17cm de long, on peut pas s’empêcher d’être admiratif quand même.
Certaines sources signalent une enveloppe thermique fixée à 320 W… Ouch… j’ai peur, vraiment…
Certainement au niveau de la 3080 pour la 6900XT, peut être un peu devant.
La différence se fera au prix mais surtout a la disponibilité. Pour qui veut jouer a CP2070 /ACV etc. en fin d’année, il prendra ce qu’il trouvera, si AMD gère le truc, ils ont moyen de faire la différence par rapport au foutage de tronche que fait NVidia.
Intéressé par la proposition d’AMD, surtout si les perfs sont comparables.
Je regrette juste qu’AMD n’ait pas son DLSS perso qui fait quand même gagner un paquet de FPS dans les jeux.
Donc à perfs techniques équivalentes, Nvidia serait toujours devant avec le DLSS.
Plus le bus mémoire est large, plus tu dois avoir de connexions qui relient la RAM au GPU, et donc cela complexifie encore plus le GPU, le risque de gravures ratées, et donc le coût. Aujourd’hui la montée en fréquence de la mémoire a compensé la largeur de bus, à tel point que ce n’est plus la mémoire vidéo qui est le goulot d’étranglement. Donc rajouter une plus grande largeur de bus n’apporterait pas d’augmentation significative de performances, c’est donc relativement inutile de dépasser les 256 bits par rapport au surcoût.
Pour les plus connaisseurs, on se situe à peu près où par rapport aux RTX 3000, en première estimation ?
Sinon, je pense que l’idée de doter toutes les cartes de 16GB est assez malin et futur proof. Nvidia s’est un peu raté (à moins d’avoir bien calculé leur coût avec des refresh qui arrivent vite).
DLSS c’est disponible sur tous les jeux ou une poignée comme RTX ? Si c’est la première option totalement d’accord avec toi, sinon, bof bof bof. Si ça concerne que quelques AAA.
Impossible de savoir vu qu’en plus, il y a une nouvelle architecture.
Seul truc qu’on peut dire c’est par rapport à la 5700XT qui était entre une 2600 et 2700 de nvidia, il y a le double de compute units (40) sur la plus haute gamme.
Donc logiquement elles seront entre une 3800 et 3700 pour les 3 premières références.
@GRITI et @Karl_TH J’ai eu plusieurs cartes Voodoo dont la Banshee et je n’ai pas pris cela comme une pique mais comme un hommage au contraire. Aaaah, le Glide, c’était quelque chose. Souvenir souvenir…
Sinon, effectivement, un petit gout de pas assez dans cet article. Il aurait été bon pour ne pas dire essentiel, de comparer les specs avec celles de la nouvelle référence auto-proclamée, la RTX 3080. Tout en précisant bien sur que l’architecture faisait beaucoup aussi et qu’il ne faillait donc pas trop s’emballer mais au moins cela aurait donné un début de point de comparaison. Travail bâclé donc ou alors manque d’audace journalistique.