hummm je suis deg, j’ai un proc 3900X mais ma carte mère est une ROG STRIX B550-E. ça changera beaucoup de chose ? (sachant que cette carte mère est compatible PCI-4 )
Le ray-tracing temps réel, c’est l’avenir c’est clair. D’ici 2025, les cartes pourront le supporter en 4k et 8k sans problèmes. Concernant les cartes AMD, je vois surtout pas mal d’annonces. Attendons de voir ce qu’elles ont réellement sous le capot pour vérifier. J’ai surtout souvenir de pilotes pas vraiment au point qui généraient nombre de problèmes.
C’est claire aujourd’hui le Ray tracing est le seul élément distinctif pour le GPU, qu’un AAA en ultra 4K tourne à 90 sur une carte et à 94 sur l’autre ne change pas grand chose. Au final les AMD vont cibler les joueurs « compétitif » qui veulent jouer à LOL ou Fortnite en 2K 250fps.
Bref, AMD font des carte pour benchmark mais pour le joueur qui veulent acheter des GPU haut gamme c’est pour avoir du 4K+RT à 60fps.
Pour l’instant je juge par rapport à ce qu’on nous a donné comme info … ces CPU ont la moitié des coeurs des RTX 3000 et font le même travail !
Et on parle de la puissance brute fournie par les coeurs de calcul … chez Nvidia c’est les CUDA Cores qui sont en très grand nombre … en voyant 10.000 Coeurs dans la RTX 3090 je me suis dis qu’ils n’auront pas à sortir de GPU d’ici 5 ans
Les Tensor Cores et RT Cores ne servent à rien dans le calcul et ne fonctionnent que si le jeu possède le DLSS et le Ray Tracing sont activés !
ils auraient dû rester sur le 7nm de TSMC … comme ça on aura une bon rapport performance/watts
L’immersion, les ombres projetées, l’ancrage des objets sur le sols sont des détails perceptibles auquel je suis sensible. Après si tu as le matos qui suit 4k hdr et le budget… Mais je joue sur contrôle en 1440p Ray tracing 60 fps comme Métro Exodus oui il y aune différence notable. Le Ray tracing devient un standard mais à petite dose. Les jeux 4j full path tracé ne sont pas une réalité. Sans doute en 2024 ça le sera avec les techno de supersampling qui seront arrivées à maturité. Donc pour l’instant c’est nvidia dlss + rt pour moi mais je suis content qu’amd mette un coup de boule à Nvidia car la série 3000 le lancement c’était une blague.
Ou flight simulator en 4k 60 fps…
Ahhhhh encore une victime du marketing « Ray Tracing » … c’est le même délire du 120 Hz sur Smartphone …
Faut arrêter avec le Ray tracing … les moteurs graphiques évoluent régulièrement et le Ray Tracing tue les performances pour quelques effets dont on peut bien se passer !
C’est bien de comparer les RTX 3080 et 3090 avec des jeux sortis ces 2 dernières années mais qu’en est-il des futurs jeux ?? qui peut garantir qu’ils peuvent faire tourner les jeux en 4K 60 FPS + RayTracing ??
Honnêtement cette génération ne m’enflamme pas parce que y a trop de coeurs pour des performances pas à la hauteur !
Quand on augmente les coeurs c’est pour compenser une faiblesse dans l’optimisation de l’architecture et sur ce point AMD a bien bosser contrairement à Nvidia !
On aimerait bien voire une RTX 3000 à 4300 Coeurs et ce que ça va donner comme performance !!!
Hélas une RTX 3000 avec le même nombre de coeurs qu’une RTX 2080 Ti est moins performante alors que l’architecture a changé et le process node aussi !
ça veut tout dire !
D’après les leak,on aura une meilleure performance que la 2080Ti mais ça sera inférieur aux Ampere. Donc à mon sens, on aura du RT « good enough ». Le RT restera utilisé avec une grande parcimonie durant à mon avis encore 1 bonne génération après (voir ce que donne Quake RTX en termes de perf), ce qui ne veut pas dire que ça n’améliorera pas véritablement le look bien avant.
Je suis assez d’accord avec l’analogie du T&L à l’époque de 3Dfx, même si pour Turing, je considère que ça aurait été sortir la GeForce avec du T&L ayant les perfs de la Riva 128).
Le Fidelity FX d’AMD est leur volonté d’atténuer l’impact de leur implémentation a prioiri inférieure à Nvidia, et ailleurs on lit plus qu’ici les fervents amoureux du DLSS, qui je l’avoue en 2.0 est excellent (alors que le 1.0 était une pure daube, même si techniquement intéressant) pour critiquer les Navi2. A voir ce que donnera la solution d’AMD en cours de peaufinage.
Mais bref, les ceusses considèrant que le RT Nvidia c’était déjà génial avant Ampere, ben ça sera mieux, même si ça sera pas la plus grosse sur la table.
Ce qui est un peu dommage, c’est que la concurrence donne de bien que Nvidia qui était bien informé a poussé Ampere autant qu’ils l’ont pu (refroidissement spécifique aux petit oignons pour dissiper 320W+, utilisation du die 102 et non 104 comme pour la 2080, 1080, 980, et clocké au maximum) et positionné la 3080 à un tarif « raisonnable » (quand on a été écorché vif par Turing), tout en considérant la 3090 intouchable (stop le baratin justificatif pseudo-Titan) et a donc compensé un peu, alors qu’à l’inverse AMD en profite pour se positionner au tarif officiel « scandaleux » de la 2080Ti (j’espère qu’en réel il sera moins cher que ne l’était en vrai la 2080Ti ~$1200 aux US et 1200/1400€ en France pendant un bail -_-). La différence étant que comparativement à Turing il y a a priori un saut de performance correspondant à l’augmentation perf/$, même si face à la 6800XT, on a visiblement le même problème qu’entre la 3080 et la 3090, où ça fait un peu cher les sous pour la différence.
Si on revient dans le passé, la 7990 était sorti à ce tarif, mais c’était aussi une bi-GPU (et la 295X2 était encore plus chère à $1500, mais c’était surtout pour tâcler la Titan annoncée à $3000). Ca reste (très) cher (surtout si on ajoute un 5950X histoire de… hmm non non… ne pas craquer), mais comme visiblement la 2080Ti s’est vendue…
De plus, ce n’est qu’une supposition mal informée mais un GPU avec plus de cœurs n’est il pas plus cher à produire qu’un GPU avec moins de cœurs ? (plus du silicium utilisé, de travail de gravure et patin et couffin) . C’est une supposition logique qui expliquerait au moins en partie pourquoi une carte avec un GPU avec moins de cœurs est moins chère qu’une avec plus de cœur.
Si l’on poursuit ce raisonnement les GPU d’AMD devraient être moins chers et moins compliqués à produire, ce qui signifie une meilleure marge pour négocier avec les fabriquant et une plus grande vitesse de production.
Comme je le disais tout cela ne sont que des suppositions mal informées. Est ce que quelqu’un qui s’y connait pourrait me dire si je me trompe ou pas.
excellent la concurence cest bon pour nous !
Le Raytracing c’est le petit détail qui change tout, une foi désactivé on voit direct qu’il y a un problème au niveau des lumières et des reflets.
Après si tu joue au raytracing sur youtube je comprend que tu ne vois pas bcp de différence car la raytracing apport bcp clavier/sourie en main quand les lumières et reflets suivent parfaitement tes mouvements et celle de tout l’environnement.
Et pour les devs, quand on pourra faire du RT sans concession ça sera un énorme gain de temps.
Effectivement, je n’avais pas fait attention à ce détail, le champ était déjà pré rempli
Pour le raytracing : ne pas oublier que plusieurs des gros moteurs (CryEngine) développent leur propre solution sans utiliser le DRX (DirectRaytracing de Direct3D). Auxquels cas avoir des cores RT n’apporte rien.
AMD a d’ailleurs communiqué quant à sa technologie Fidelity FX, qui permet un rendu hybride mêlant rastérisation (traitement traditionnel) et Ray tracing, pour ne pas trop impacter les performances.
C’est également le cas de tous les rendus « RT » sur Nvidia/DRX! Les cores RT ne sont utilisés soit que pour l’éclairage et/ou les ombres et/ou les réflexions (mais difficilement les trois à la fois); mais la base reste la rastérisation.
Les Radeon RX 6000 supporteront bien le DRX, selon d’autres sites. Ex, https://www.eurogamer.net/articles/digitalfoundry-2020-10-28-amd-unveils-three-radeon-6000-graphics-cards-with-ray-tracing-and-impressive-performance :
The RX 6000 series will be the first AMD GPUs to support DXR ray tracing and other DirectX 12 Ultimate features, but we don’t have a good idea of ray tracing performance on the new cards, so hopefully this will be detailed soon. AMD also hasn’t announced a true competitor to Nvidia’s DLSS feature, which boosts frame-rates significantly in supported games to help offset that RT cost, so we’ll have to see if anything like that emerges later on.
Tu as raison , AMD à adopté la même stratégie que pour la fabrication de ses processeurs Zen, à savoir une simplicité et efficacité de gravure qui leur permet une scalabilité énorme et un amortissement des couts exemplaires. Je soupconne qu’a positionnement tarifaire agréssif ils peuvent faire plus de marge que leur concurrent.
Définition Google
VRR , pour Variable Refresh Rate désigne une fonctionnalité permettant de faire varier la fréquence d’actualisation des images sur l’écran en fonction de la disponibilité des images délivrées par la source. Cette fonctionnalité est un atout en utilisation jeu, elle permet d’améliorer la netteté des images en mouvement.
En réponse à Miky:
Sur ce point on est d’accord comme je l’ai dit plus haut, après une refroidissement efficace peut dissiper 300W dans un « certain silence ».
Moi je joue au casque donc ce n’est pas trop important de mon point de vue, par contre dans le PC du salon ça l’est beaucoup plus !
En réponse à PierreKaiL:
Ben dit donc tu doit passer bcp de temps à jouer toi !
A 0.15€ le kilowatt/h la différence de 150W pour arriver à 10€ par mois fait + de 444h de jeu… sachant qu’un mois fait 744h… tu dort pas, tu travail pas ?
Quand tu discute sur Clubic tu oublie les serveurs qui héberge Clubic, donc là on est plus à 100W du tout…
En fait, on oublie aussi, mais ce n’est pas que le bruit (et la config dont je parlais nécessitait un certain volume sonore même au casque), mais aussi la chauffe. Pas plus vieux que cet été, j’ai parfois hésité à lancer une partie, encore que, malgré le fait que ma config actuelle n’est pourtant pas réputée énergivore
Ouais, à l’époque on disait pareil des ombres.
Ombre qualité Ultra, Haute, Moyenne, Basse, Désactivée.
Ben aujourd’hui, c’est avec le RT.
Donc on comprend pas trop l’intérêt de ton commentaire ?