« Les gains d’efficacité entre 2080 et 3080 ont été quasiment deux fois plus faibles, à peine plus de 35% »
Oui, sauf que le prix entre 2080 et 3080 n’a pas fait x2. 2080: 849, 3080: 719, 3080 16Go: 1469E.
35% pour moins cher contre… disons 40-50% et 2 fois plus cher.
La 4090 n’est pas représentative de toute la gamme. Les 4080 seront plus ‹ castrées ›.
Oui, et alors ? On parlait efficacité, pas prix…
Surtout que j’ai précisé en plus : « On peut discuter du prix, de la consommation électrique dans l’absolu… Mais sur le plan de l’efficacité, y a vraiment rien qui puisse lui être reproché… »…
Il y a un exemple récent avec l’introduction des RT Core sur la RTX 2070 par exemple. Ce GPU fait 450 mm² parce qu’il embarque des unités spécialisés pour le ray tracing. Le GTX 1080 Ti qui fait lui aussi 450 mm² a une efficacité « généraliste » à peine moindre (en fait, il est plus performant, mais il consomme plus) alors qu’il est gravé en 16 nm (contre 12 pour le RTX 2070). La différence se situe dans l’ajout de fonctionnalités que le GTX 1080 Ti ne gère pas ou très mal (en software par exemple, l’efficacité du ray tracing serait mauvaise). Donc, on a bien une chute « générale » de l’efficacité, accompagné d’un gain « spécialisé ». Si ils restaient sur la même architecture, il n’y aurait pas d’ajout de fonctionnalités géré au niveau matériel.
Dans d’autres cas, l’efficacité générale dû à l’architecture peut être légèrement amélioré (HD5870 vs HD6870).
Non. Diviser la taille de gravure par 2 n’a jamais multiplié l’efficacité énergétique par 4 (ou en tout cas pas depuis très longtemps). Et surtout, depuis un paquet d’années, les gains d’efficacité lié au processus de gravure sont relativement marginaux…
Oui, c’est surtout vrai depuis le 28 nm. Ils sont d’ailleurs passés du 28 nm au 14 nm (16 et 12 nm pour Nvidia) directement sans passer par le 20 nm intermédiaire.
Il n’empêche que le passage du RTX 3090 Ti au RTX 4090 a permis de passer de 45 millions de transistors par mm² à 125 MTr/mm² soit une densité de 2,8x au lieu de 4x, mais à surface égale et surtout à TDP égale, la RTX 4090 a une fréquence plus élevé.
TSMC a fait un travail exceptionnel ici, il n’y a aucun doute là dessus.
Pour le gain intrinsèque à l’architecture d’Nvidia, il faudra attendre un GPU d’environ 28 milliard de transistors (un semi-RTX4090 sur bus 192 bit serait idéal pour la comparaison) pour en avoir le coeur net et pouvoir comparer à nombre de transistors égal avec le RTX 3090 par exemple.
Il n’empêche que le RTX 4090 est plus perf et efficace que le RTX 3090(Ti) malgré tout, c’est indiscutable.
Ok, encore une fois Nvidia a réussi son coup de com, il faut reconnaitre qu’ils sont doués pour cela. La carte est très impressionnante, surtout par rapport à la carte de génération précédente.
Mais il faut tout de même réussir à voir à travers les paillettes et notamment se rappeler que la RTX 3090 n’était pas du tout une bonne carte: son ratio prix/perf était lamentable par rapport à une RTX 3080 ou une RX 6900 XT. Du coup, mettre la RTX 4090 face à la RTX 3090 ne peut que la faire briller par comparaison
Seulement, en ira t’il de même avec la RTX 4080 qui pour le coup va se retrouver en face d’une très bonne RTX 3080, ou RTX 3080 Ti, en fonction du modèle 12Go ou 16Go. Là, je doute qu’on obtienne des différences aussi remarquables alors que la différence de prix MSRP, elle, sera tout à fait remarquable.
Rappelons nous aussi que trop s’extasier sur des produits aussi chers et pire encore, les acheter, ne peut qu’encourager les fabricants à continuer de pratiquer des prix d’une autre planète et ceux qui seront perdants, ce sera nous.
Euh la 3080 Ti devant la 3090 dans les 3/4 de vos tests, ce n’est pas normal…
Oui, c’est vrai dans ce cas particulier. Dans le cas des 40xx vs les 30xx, ça ne s’applique pas vraiment : il n’y a pas de nouveau type d’unité de traitement spécialisée.
Oui, mais encore une fois, tu ne peux pas traduire ça en gain d’efficacité… Ce n’est pas parce que tu met 2.8x plus de transistors dans la même surface que tu multiplies forcément l’efficacité par 2.8… La consommation ne dépend pas que de la surface d’une puce indépendamment de la finesse de gravure et les performances ne sont pas strictement proportionnelles au nombre de transistors. Et tous les transistors d’une même puce n’ont pas la même contribution à la consommation et à la performance totales.
Et d’ailleurs, la densité elle même, elle ne dépend pas que du processus de gravure. Elle dépend AUSSI de l’architecture… Car toutes les parties d’un circuit ne peuvent pas atteindre la même densité.
Quelques exemples, sur le CPU Poulson d’Intel, gravé en 32nm :
- 4.5 MT/mm² pour les cœurs d’exécution,
- 13.3 MT/mm² pour le cache L3,
- 0.65 MT/mm² pour les I/O
On a donc, sur un même die, et donc forcément le même processus de gravure, une densité qui varie d’un facteur 20 entre différents blocs (et en découpant en blocs plus petits, on constaterait probablement des variations de densité encore plus grande).
Et du coup, forcement, avec le même processus, une puce avec une plus grande quantité de cache va avoir une densité plus élevée, alors qu’à l’inverse une puce avec plus d’I/O (par exemple, une version prévue pour fonctionner en quad CPU vs une version mono CPU) va avoir une densité plus faible.
Ça n’a absolument aucun sens de faire ce type de comparaison. Parce que les transistors n’ont pas tous le même apport de performances (ni le même impact sur la consommation) selon l’endroit où ils sont utilisés…
Typiquement, cette nouvelle architecture a, comme je l’ai expliqué plus haut, beaucoup plus de cache que l’ancienne. Le cache, ça consomme beaucoup de transistors, tout en apportant relativement peu en performances. Mais c’est pas pour autant qu’une architecture avec plus de cache est plus mal optimisée…
ll est possible également que des transistors supplémentaires aient été rendus nécessaire pour faciliter la montée en fréquence : il n’y a pas que la finesse de gravure qui joue sur la capacité à monter en fréquence, l’architecture joue beaucoup également (exemple chez Intel, les derniers Pentium D montaient beaucoup plus haut en fréquence que les premiers Core 2 Duo, malgré l’utilisation du même processus de gravure : 3.7 GHz pour les Pentium D, 2.67 GHz pour les Core 2 Duo).
Si pour faire une puce de ~28 GT nVidia fait simplement une réduction proportionnelle de toutes les unités, elle aura le même ratio performances/T qu’une 4090 et sera sans doute moins performantes qu’une 3090, mais en ayant moins de transistors « de calcul » qu’une 3090…
Si à l’inverse nVidia fait quelque chose de non proportionnel, en taillant plus fortement dans le cache par exemple, les peformances/T seront sans doute meilleures que sur la 4090. C’est pas pour autant qu’on pourra considérer cette variante comme disposant d’une architecture « mieux optimisée ». L’architecture étant strictement la même… Comme entre un 5800X et un 5800X3D : l’architecture est la même, mais le second offre deux fois moins de performances/T… Tout en atteignant des performances que le 5800X n’est pas capable d’atteindre…
Utiliser des indicateurs comme les perfs/T pour juger de l’efficacité d’une architecture a d’autant moins de sens que dans le domaine des puces, comme dans le sport, plus les performances sont élevées, plus les gains sont difficiles à obtenir… À part en parallélisant bêtement, ce qui ne marche que avec des workloads qui se parallélisent bien, doubler le nombre de transistors ne va jamais doubler les performances, tout comme un sportif qui passe de 8 à 16h d’entrainement par semaine ne va pas doubler ses performances…
Donc on ne peut pas discuter du prix malgré ce que tu écris.
Moi je dis que ne parler que d’efficacité perf/watt juste pour avoir raison, c’est très réducteur. Elle est très chère, elle consomme beaucoup. Je ne vois pas d’efficacité.
Si à prix égal et consommation égale, elle est plus performante que la précédente alors oui c’est plus efficace. Sans ça…
Les batteries / condensateurs au graphène sont efficaces selon ta définition réductrice. Après 15 ans de recherche dessus, cela n’existe toujours pas, même chez Tesla. Donc non, en l’état ça n’est pas efficace du tout. Le prix est prohibitif.
L’efficacité c’est pas de faire mieux quelque soient les coûts.
Au vu des tarif des ryzen 7, je me marre déjà pour leur prochaines CG, beaucoup vont pleurer quand ils verront des tarifs identiques a nvidia
Ça m’étonnerait vraiment beaucoup. Face au rouleau compresseur Nvidia et à leur politique de fuite en avant, AMD sait qu’il ne peut, ni ne doit, jouer la surenchère et surtout pas en matière de prix.
AMD s’est depuis longtemps efforcé d’être le contrepoint de Nvidia. Il en ira de même cette fois-ci. La seule chose que j’espère, c’est que Nvidia sortira ses RTX 3080 rapidement car c’est probablement contre elles qu’AMD va se positionner, tant en matière de prix que de perfs et là, ça pourra être intéressant.
Oui, elle est très chère. C’est un fait.
Mais non, elle ne consomme pas beaucoup en regard de ses performances. C’est justement ça l’efficacité, et le prix de vente ne peut en aucun cas le remettre en cause : jamais une carte graphique n’a délivré un tel niveau de performance pour chaque Wh consommé.
Non. Le prix de vente n’entre pas dans le calcul de l’efficacité. L’efficacité n’est pas le rapport performances/prix. Ce sont deux choses bien différentes, qui entrent tous les deux dans les critères de définition d’un bon produit, mais sont bien indépendants l’un de l’autre.
Et dire que dans l’article, je propose un « joli » graphique pour détailler les performances / Watt et les performances / Euro, c’est quand même dommage
En effet, j’avais bien vu les performances/W, c’est sur ça que je me suis basé plus haut pour dire qu’elle a une efficacité en progression de 60% par rapport à la 3090, mais je n’avais pas vu qu’il y avait aussi les performances/€.
Du coup en fait même sur ce point, elle n’est pas mauvaise, il n’y a que la 3080 FE qui fait mieux, mais on sait que dans les faits, la FE était en pratique très difficile à obtenir et les prix du marché sur les autres 3080 ont longtemps été à plus du double.
Bon test, effectivement sa s’adresse à une certaine élite qui à déjà le matos qui va avec, la majorité est dans l’attente des 60 et 70, wait and see.
Pas vraiment d’accord. Tu disposes de Studio Driver pour les séries 1xxx - 2xxx - 3xxx. Certes, ce ne sont pas les ODE des Quadro, certifiés ISV & Co mais ça fait largement le taff. Si t’as besoin d’une petite WS performante, de secours, ou pour faire certaines tâche de rendering ou que sais-je, sans devoir sortir +20k (comme pour une Z8 G4 HP par exemple - extrême l’exemple certes), niveau prix/perfs GPU, t’auras pas mieux. Y a pas photo.
Pour la RTX Titan je dirai que c’est un peu spécial. Même si encore très performante - elle est maintenant derrière une 3090. Elle pourra peut-être devant et faire la différence grâce à ses Tensor Cores en nombre supérieurs en ce qui concerne le machine learning et autre AI. J’avais toujours l’impression que cette carte était vraiment à cheval entre les Quadro et les GPU grand public. Les drivers, si je dis pas de connerie, sont identiques à ceux des 3xxx & co (studio driver et game ready) et ne bénéficient donc pas des certifs comme pour les Quadro.
Les pseudo affaires sur les cartes graphique sont basées sur le prix gonfler artificiellement par les « pénuries » elle reste au dessus des prix que l’on devrait avoir en comparaison des prix pratiqués avec la gen précédente. Et comme ça fonctionne Nvidia n’a plus besoin de diminuer le prix de la nouvelle gen.
Là dessus, je suis d’accord, et c’est justement cela que je voulais dire. Ca permettrai de mettre en avant l’architecture tel qu’elle est (moins de « transistor de calcul » comme tu dis).
La dessus, je ne suis pas d’accord. La mémoire cache fait parti de l’architecture. Les proportions interne aussi (TMUs vs Shaders vs ROP vs bus etc…). Si une mémoire cache occupe trop de place, l’architecture sera mauvaise, et si pas assez de cache également. Idem pour un bus trop petit ou trop large (il ne faut pas que ça occupe trop de place, mais il ne faut pas non plus brider les perfs des unités Shader/TMU/ROP).
Ensuite, on ne peut pas comparer un CPU et un GPU à cause de la difficulté de monter en performance sur des calculs effectué en série. Le gain en perf des CPU monocore de génération en génération est médiocre. La mémoire cache sur un CPU peut jouer un rôle dans certains jeux vidéos ou dans certains logiciels comme WinRAR, mais c’est assez spécifique à seulement quelques jeux pour lequel le gain peut être élevé.
Donc pour moi, la mémoire cache est un critère d’optimisation, la largeur du bus aussi, et tout le reste (proportions interne).
Mais c’est pas pour autant qu’une architecture avec plus de cache est plus mal optimisée…
Si ça occupe trop de place, si. Car le TDP est proportionnel au carré de la fréquence. En doublant la taille de die (sans changer l’architecture et les proportions) et en baissant la fréquence de 40%, tu peut augmenter les perfs de 40% à TDP constant, hors une mémoire cache qui occuperait trop de place et qui n’apporterait que 10% de perf sur une architecture massivement parallèle serait indirectement de la perte d’efficacité.
Tu parle à TDP constant pour 2 finesses de gravure différente ? Si oui, il y a des exemples.
En revanche, c’est vrai qu’avoir 2,8x plus de transistors en passant de 8 nm à 4 nm ne permet pas d’avoir une efficacité énergétique même 2,8x plus grande par exemple à taille de GPU égale et à TDP égal.
La dessus, je reconnait une erreur de ma part.
Pour l’efficacité pure, il faudrait baisser la fréquence de plus de 1,8x pour diviser le TDP par plus que 3 et ainsi obtenir cette efficacité supérieur à 2,8x (sur 3DMark GPU score uniquement. Dans les jeux, c’est plus beaucoup plus faible). Dans ce cas, ça serait à « performance égale » par rapport à la génération précédente plutôt qu’à « TDP égal ».
Merci pour le test, assez complet.
J’apprécie le ration perf/watt perf/prix à base de TimespyExtreme.
Cette carte est un monstre, ce n’est pas une surprise. Pas encore utilisé de manière optimale même avec RT on, DLSS3 et 4K Ultra sur les jeux actuels. Il faudra attendre la prochaine génération de moteurs type UE5 ou celui de GTAVI ou RDR3 pour voir ce qu’elle a dans le ventre. Mais elle s’en sort bien sur les gros jeux du moment, surtout avec DLSS3 qui est exclusif à l’archi Lovelace.
A 2K€ la carte graphique c’est une carte pour millionnaires (PC complet à 5K€ avec l’écran 4K) je ne mettrai pas plus de 700 ou 800€ dans une carte graphique, c’est déjà énorme. Il y a des années c’était plutôt 500€ max mais l’inflation est passée par là.
Je ris déjà en pensant aux PC portables avec GPU Lovelace, qui auront un TDP de 150W maximum pour un format correct (16 pouces max, 2,5kg max). Comment sortir de bonnes perf avec 150W quand la 4090 suce 450W au max ? c’est une gageure pour les ingénieurs AMD et nVidia pour RDNA3 et Lovelace mobiles. Car j’attends surtout ces puces dans un portable ou un PC type steam deck ou GPD win max 2 de moins de 1kg pour voir ce que l’architecture a dans le ventre avec peu de Watts. Je n’ai plus de PC au sens traditionnel, seulement laptop et steam deck.
Moi aussi justement. Les cartes graphique de bureau ne m’intéresse plus. C’est pour ça que je m’intéresse à l’efficacité et après coup, elle n’est pas si mauvaise en considérant un underclocking. Il est possible qu’à 100 W seulement, les perfs soit supérieur à la RTX 3070 de bureau. Et qu’à 165 W, elle dépasse les perfs d’une RTX 3090 de bureau.
Reste plus qu’à attendre que des overclockeurs test l’underclocking sur ce GPU pour avoir un meilleur aperçu de ce qu’il vaut vraiment.
qu’en ai t il de la prise Connecteur 12VHPWR, adaptateur est il fournir dans la FE ?
on a entendu tout et son contraire dessus !
parce que les nouveaux usb sont aussi une sortie vidéo et certains écran secondaire et tactile sont en usb, pour moi c’est effectivement secondaire c’est cas le dire, mais la norme est bien là c’est un faite, et de là adevoir ajouter un module de conversion qui gacherais tout ! mais je pense qu il vaut mieux attendre usb 4 et ce soit natif