Vu sa consommation, interdite par le gouvernement.
Je ne parle pas d’echec commercial, je parle d’echec architectural. Elle est là la différence.
Un exemple …
La 1080Ti, c’est une fréquence boost comprise entre 1550 et 1700Mhz pour la FE.
La 3080 se targue d’une fréquence boost « officielle » de 1665Mhz pourtant, le gain entre les 2 architecture est RÉELLE à fréquence EGALE ! Là, je dis « OUI !!! » tout de suite, il n’y a pas à tergiversée (puisqu’en plus, le prix MSRP était équivalent voir inférieur).
Euuuh là par contre … Comment dire … L’enfumage est réel entre Ampere et Lovelace … On peut pas le nier. Il suffit juste d’être un brin objectif pour se rendre compte que l’efficacité de l’architecture de Lovelace, n’est pas là …
Je sais bien on en avait déjà discuté de tout cela et je comprends tout à fait ton point de vue.
Mais vois-tu, dans l’optique de petites WS sympas (3D/Video) en remplacement de quadro qui m’ont assez déçues, qui côutent chères et sont moins performantes. En restant dans le domaine de la 3D, regarde le bench d’une RTX 8000 Quadro (à 7000 balles) vs une 3090. Sous Vray RTX, la 3090 est 3x plus rapide. Sous Optix (Blender), c’est une punition sans nom, même en SLI pour la Quadro. Octane, idem. Pour la video, c’est moins flagrant. DaVinci, 49% plus rapide avec une 3090 et sous le veaux de Premiere, la 3090 est à peine 10% plus véloce.
La Quadro reprend le dessus avec des softs comme Catia, Creo, Energy et tout ce qui touche aux softs scientifiques (que je n’utilise pas). Pour le prix d’une quadro, j’équipe 3 stations d’une 4090.
Même si je vais attendre les tests 3D/Video, je doute qu’elle fasse moins bien qu’une 3090.
Et concernant les jeux… m’en tamponne un peu avec des saucisses molles
En revanche, sa réserve de puissance, sa quantité de mémoire et son environnement logiciel en font un outil semi-professionnel remarquable.
Cette conclusion de @Nerces est juste parfaite.
Concernant les points négatifs dans la conclusion, quel est l’intérêt du port USB-C sur une carte graphique ?
D’autant que j’ai beau faire un CTRL+F « USB » sur l’article, ça n’est mentionné nulle part ailleurs que dans la conclusion…
Dans ce cas, on peut aussi indiquer en points négatifs le fait qu’il n’y ait pas de port Ethernet 10Gb ou de Wi-Fi 6.
D’après vos capture le resize bar est désactivé, du coup. Du coup possibilité de revoir encore les perf un peu à la hausse ?
A vérifier mais sur un autre site , il semble que le Resize bar était aussi désactivé donc à voir si ca vient pas tout simplement d’un problème de lecture du bios de la carte avec gpu-z ou autre outil , ou alors que ce n’est pas actif par défaut sur la 4090 mais ca serait étonnant quand même
En sortie vidéo, ça peut être pratique. On ne va pas se mentir : c’était pour avoir quelque chose à dire, mais je trouve dommage de l’avoir retiré ce port USB-C d’autant qu’on trouve de plus en plus de CM qui en sont dotées pour gérer le DisplayPort.
Oui, c’est parce qu’on peut considérer qu’il y a 2 types d’efficacité, une qu’on pourrait appeler extrinsèque (ou physique) et qui concerne TSMC ou le fondeur en générale et une deuxième qu’on pourrait appeler intrinsèque (ou logique) et qui concerne l’architecture et qui concerne Nvidia de sorte que l’on pourrait écrire :
Augmentation efficacité globale = augm. efficacité « architectural » (Nvidia) x aug. efficacité « physique » (TSMC)
L’efficacité par TSMC augmente de génération en génération tandis que c’est l’inverse coté Nvidia (ou AMD), elle diminue d’année en année.
Si en passant de 55 nm à 28 nm, l’efficacité théorique par TSMC est multiplié par plus que 4 (loi de Moore en gros), en pratique, on ne les retrouvent pas sauf lorsque l’architecture ne change pas, justement.
Ici, on aurait pu avoir à TDP constant et à surface de die constante, (2,52 GHz/1,86 GHz) x (76/26) = 4x d’augmentation en efficacité sans changement d’architecture par rapport à la RTX 3090 Ti et donc avoir des perfs de folies.
En gros :
Efficacité globale = efficacité Nvidia x efficacité TSMC = 4
Efficacité globale = 1 x 4 = 4 sans changement d’architecture
hors, on a plutôt:
Efficacité globale = 0,45 x 4 = 1,8 avec changement d’architecture Lovelace
Voilà comment je vois les choses en tout cas.
Nota : Les perfs ne peuvent se vérifier en pratique qu’avec des logiciels comme 3DMark via le GPU score par exemple.
Effectivement, là c’est compréhensible.
C’est dommage que cela n’ait pas été précisé dans l’article.
Ne faisant plus que du développement, je regarde désormais de loin les nouveautés Hardware, et j’avais donc oublié cette possibilité.
OMG, C’est plus un monstre, c’est un monster truck, vu la taille des ailettes de refroidissement, ça doit chauffer comme une poêle sur le feu, 3 slots, ni plus ni moins,
ton iPhone ou ta montre connectée va appeler les secours pour température dangereuse.
Clairement un monstre de performance en rasterization et rtx. Dommage pour le prix. Mais bon chacun fait ce qu’il veut, ça devient lourd les mêmes pleurnicheries sur les personnages enfin l’axe du Mal qui va acheter ces cartes. Juger derrière un écran c’est tellement mesquin.
La mentalité du woueb
Avec la génération 3000, Nvidia nous avait montré son meilleure ratio performance/prix, à savoir la RTX 3080, en premier.
Si comme je le crains il en va de même ici, c’est à dire que c’est la RTX 4090 à 2000€ qui offre le meilleur rapport performance/prix , j’ai peur pour les modèles en dessous, pourtant très attendus.
Non. Diviser la taille de gravure par 2 n’a jamais multiplié l’efficacité énergétique par 4 (ou en tout cas pas depuis très longtemps). Et surtout, depuis un paquet d’années, les gains d’efficacité lié au processus de gravure sont relativement marginaux… Regarde déjà du temps du tick-tock d’Intel, les gains de consommation lors des die shrink n’étaient plus faramineux, et plus on grave fin, plus les gains deviennent faibles, parce qu’il y a de plus en plus de courants de fuite qui provoquent des pertes importantes. Au point qu’l arrive même parfois qu’une gravure plus fine mais pas aussi bien maitrisée donne au final une consommation supérieure…
Tu penses bien que si le changement de finesse de gravure faisait gagner un facteur 4 et que le changement d’architecture faisait ensuite perdre plus de la moitié de ce gain, les concepteurs de puces dépenseraient pas des milliards pour concevoir de nouvelles architectures, ils se contenteraient de faire des die shrink de leurs anciennes architectures, ça leur coûterait moins cher tout en pouvant être vendu plus cher, puisque les gains pour l’utilisateur seraient plus grands…
Pour la VR notamment.
Alors je dois avouer que concernant les Quadro, la dernière que j’avais eu était sur architecture Volta … Bon …
Cependant justement, il me semble que Nvidia, à la différence des cartes Titan, développe les drivers des GeForce d’une autre « manière », certaines features n’étant pas activent ou implémentés par rapport aux anciennes gamme Titan et Quadro actuelles.
Donc en plus de proposer des 4090 à des prix délirant en les cataloguant de cartes « semi-pro », en réalité, elles offrent moins de features que les anciennes Titan, qui elles, étaient justement faite pour se positionner sur ce segment de produits.
Ça permet à Nvidia de réduire les coûts en terme de développement de drivers tout en augmentant les prix et de ne pas avoir une carte qui viendrait cannibaliser le marché des Quadro au passage !
« il convient tout de même d’insister sur le fait que le jeu vidéo n’est évidemment pas la vocation première d’une telle carte. »
Pas d’accord , les rtx sont là pour le jeu , pour les pros ils proposent d autres cartes .
Sinon merci pour le test , nvidia vient de sortir un monstre , gourmand certes mais très bluffant ! Bien joué à eux !
Ça sent pas bon pour AMD , j espère qu’ils ont de quoi concurrencer nvidia
cool, les pigeons vont pouvoir acheter les prochains écrans 8k pour continuer à payer 2 fois plus dans les cinq prochaines années des nouvelles cartes
Elle est vraiment incroyable niveau performance et finalement elle ne consomme pas tant que ça
J’ai limite envie de la prendre malgré son prix