en tout cas, c’est cher !
Faut arreter de dire n’imp… 150W H24 oui c’est 10-15€ en plus…ton GPU tourne quoi 6H/j… donc 2.5€/mois soit 30€/an pour un gpu a plus de 500€… faut arreter le delire
AMD dépasse cette fois-ci Nvidia dans l’optimisation … regardez le nombre énorme de coeurs chez Nvidia et pour un résultat qui n’est pas à la hauteur par rapport à la dernière génération avec la moitié des coeurs !
Vous ne trouvez pas bizarre qu’une rtx 3070 avec 1200 Coeurs en plus + architecture nouvelle + 8 nm … et on au final on arrive aux mêmes performances qu’une RTX 2080 Ti voire moins !
On sent qu’il y a plus de progrès chez AMD avec presque le même nombre de coeurs pour le Mid Range et des performances explosives !
euh 1000$ une RX 6900XT qui égale la RTX 3090 à 1500$ … pas si cher que ça !
Non ! Le RT Core et le Tensor Core ça éclate tout ! Rien que par leur nom ! Ou pas…
Je ne sais trop quoi penser de cette présentation. Je suis satisfait par certains cotés, un peu moins par d’autres. Pour commencer pour la 6800 je ne m’attendais pas à ce qu’elle soit plus chère que la 3070. Certes il faudra voir les prix des cartes constructeurs vu que pour l’instant aucune ne s’approche du prix conseillé pour la RTX 3070, mais tout de même.
Pour la 6800 XT je m’attendais à des performances équivalentes à une 3080 pour environs 100$ de moins. C’est finalement 70$, ce qui est toujours bon à prendre surtout si les performances sont supérieures. Et là encore il faudra voir le prix des cartes constructeur qui pourraient d’avantage respecter le prix conseillés.
Enfin et surtout je m’attendais à de vrais benchmarks de jeux, images à l’appui et pas à quelques chiffres difficilement vérifiables. Cela veux dire qu’il faut encore attendre 20 jours pour savoir si oui ou non AMD a réussi à faire jeu égal avec Nvidia alors que je m’attendais à avoir la réponse ce soir. La comparaison avec Nvidia et sa 3070 qui offre de vrais chiffres est ici à l’avantage des verts et c’était probablement le but recherché.
Enfin je trouve l’écart de prix entre la 6800 et la 6800 XT un peu faible, l’une risque de concurrencer l’autre.
Euh… Sincèrement ? Tu t’attendais à quoi ? Une auto-flagellation de AMD pour satisfaire ton envie de « neutralité », alors que Nvidia a présenté des benchmark sans que (trop de) personne n’ait moufté ? Tu crois que vraiment Nvidia était objectif durant sa présentation des dernières puces ? Je ne comprend pas cette manie d’imposer aux autres ce qu’on n’impose pas à soi-même…
Ca reviendrait par jour à 0.51€ avec une 150W en se basant sur le prix moyen du kwh qui est de 0.1765€
Le marketing ça sert à faire des ambassadeurs de marque prêts à acheter n’importe quoi à partir de 3 graphiques non vérifiés. Tout devient une vérité.
Nvidia les performances sont largement vérifiées, on sait. Ils avaient à peine gonflé la présentation. Là tant qu’on n’a pas testé on ne sait rien…Et peut-être que dans quelques semaines ce sera ok sans mauvaise surprise ou pas.
Le marketing ça sert à faire des gogos qui vont 10 posts d’affilés pour soutenir leur marque sur une base vide… De bons petits esclaves.
Quelque soit la marque ce type de présentation est du bullshit.
Nwseven, une partie du choix la quantité de Vram vient du choix du constructeur mais est contraint par la largeur de bus. Celui de la 6800XT n’est pas énorme et oblige à un choix de 8GB ou 16GB.
8GB suffisent pour une utilisation gaming mais c’est pas vendeur donc le choix s’est tourné vers 16Gb. En effet dans les bêtises que tu vas lire, il va y avoir des chiffres délirants sur la quantité de vram. AMD veut vendre des cartes…
Aucun titre ne prend plus de 8 Gb en 4K. On peut avoir cette impression car certains titres préemptent la vram mais ne l’utilisent pas forcement toute. C’est par ailleurs le cas pour certains OS ce qui rend les comparaisons caducs.
Si tu veux avoir de bonnes infos il faut lire les articles des sites FR ou EN (tweak3d, techpowerup, Arnandtech, etc.) et pas les commentaires…
Si Noël 2021:joy:
A 10 euros/mois et 150W, le mec passe plus de 12h par jour à jouer, tous les jours… Je pense qu’un tel nolife n’est pas à 10€ près.
C’est le haut gamme c’est normal que c’est cher .
Nvidia n’est pas mieux avec c’est RTX 3070 499 ! backorder ,RTX3080 699 1 backorder et la RTX 3090 1500 ! backorder .
Il va surement y avoir aussi bientôt une 6700 et une 6500 faut juste est être patient pour le début de 2021 .
C’est faux ce n’est pas Free Sync qui prend en charge mais c’est Nvidia qui a trouvé une astuce utiliser la technologie Free Sync qui se je trompe pas est gratuit .
Pour le VRR c’est le FreeSync qui a gagner parce-que les constructeurs de télévision ont choisis le moins cher $$$ .
La licence du G-Sync coûte beaucoup trop cher .
Quoiqu’on en dise, le raytracing c’est quand même l’avenir, et ça fait une vraie différence sur le rendu. C’est comme si à l’époque on aurait dit que le transform & lighting c’est too much, alors j’vais garder ma 3dfx. Ou que les shaders, qui va apprendre à coder ça, vaut mieux rester au pipeline fixe.
Suffit de voir les previews de Cyberpunk pour voir qu’il y a un énorme gap au niveau de l’éclairage ou des ombrages. Alors bien sur on est pas encore au niveau d’un film d’animation complètement raytracé mais c’est quand même LA tendance des prochaines années.
Je dis pas ça contre AMD, ils sortent des putains de cartes là, ils reviennent dans le game, et je suis même assez persuadé que la prochaine fois ils vont tout rafler, sur tous les tableaux (RT & raster). Mais le RT c’est pas un gadget, c’est un vrai avantage visuel qui certes s’ajoute à une longue liste, mais qui est clairement l’innovation du moment mais aussi la direction dans laquelle on va.
Le but c’est de calculer le surcoût que va coûter l’utilisation d’une carte de type RTX3080 par rapport à une petite RTX1060.
Pourquoi tu ajoutes le prix de l’abonnement EDF dans ton calcul ??
Ça c’est une légende urbaine, la transmission de données consomme un peu plus que les datacenters, et les appareils utilisateurs bien plus. Voir la dernière vidéo de M. Bidouille - Internet et le climat :
Mouais même sur une journée de 8h de jeux AAA par jour ça représente 6€ dans le mois pour la différence de conso à 150W.
Et encore dire qu’une carte haut de gamme ne consomme que 150W en pleine puissance, je veux bien voir ça.
Quoi que l’on puisse en penser, coût, tdp,technologie…Je pense qu’avec cette génération, que ce soit chez nvidia ou amd on a passé un cap pour le plus grand bonheur des joueurs que nous sommes. Ne pas avoir à sacrifier la résolution/graphismes pour gagner des ips ou inversement. Dans tous les cas on est assuré de jouer dans des conditions plus que confortables sur les gpu les plus abordables.