Un chouia en « retard » par rapport à la date de sortie de la génération de cartes graphiques précédente, NVIDIA met aujourd’hui le cap sur les GeForce RTX 4000, dites « Ada Lovelace ». Les choses débutent de manière sérieuse avec le modèle le plus musclé de la gamme : à présent disponible, la RTX 4090 est un monstre, dans tous les sens du terme.
Merci pour le test.
Effectivement, en perfs brutes, y a un sacré cassage de pattes arrières quand on regarde le graphique de 3DMark.
Pensez-vous faire quelques tests supplémentaires avec des applis pros 3D et video ?
Celle-là elle enterre tout le monde ni plus ni moins.
Au final elle consomme moins que la 3090Ti
Oui, je m’attendais à bien plus que ça en consommation… sobre qui plus est au repos ^^
Etonné aussi par la consommation. M’attendais à largement plus.
La version Ti devrait remédier à cela.
La question c’est le prix de la 3090… est ce que ça va baisser le temps de vider le stock. Parce que Amazon nous fait croire qu’on fait une affaire avec des -60 % sur le prime day mais vu l’âge de la carte c’est pas vraiment intéressant par rapport à une 4080…
Je trouve que cette génération Lovelace, si on s’en tient au ratio « transistors / gain » par rapport à Ampere est au final totalement désastreuse, on va pas se mentir.
Je rappelle que Ampere, en version « Full » c’est 23,8 millions de transistors. Là, avec Lovelace, on passe à plus de 76,3 millions de transistors pour un gain de perf au final, qui n’est pas si outrageant que ça …
L’optimisation architecturale de Lovelace est catastrophique puisqu’en susse, il a été nécessaire à Nvidia d’augmenter ENCORE les fréquences … Donc, on a d’un côté 3,2x plus de transistor d’une génération à l’autre, avec une augmentation de fréquence conséquente, et de l’autre, un ratio perf qui n’égale pas un ratio de 1/1 par rapport à Ampere …
C’est au final, très très très décevant … Surtout au vu du prix pratiqué … Cette architecture Lovelace est un échec … Et personnellement, elle me fait penser à l’architecture Rankine des Geforce 5 puisque son nombre de transistors était plus élevé que sur Kelvin (Geforce 4) avec des fréquences égales ou inférieures ce qui a conduit à des perfs désastreuses.
Là, les perfs ne justifient pas les 76,3 milllions de transistors, soit plus de 48 millions de transistors supplémentaires par rapport à Ampere …
Presque 2000€, whaow.
Un échec qui finira dans ma toute prochaine tour (selon les resultats en GPU Rend/Video).
Les échecs comme ça, j’en redemande
Plus qu’à attendre le 13900K pour voir si c’est aussi un échec de manière à accompagner cette petite carte graphique sinon ça sera un petit 7950X.
Bah … Y’a ceux qui veulent les dernières évo à des prix dénués de bon sens, et en dehors de toutes logiques. Et il y a les autres … Qui réfléchissent …
Moi je réfléchis … °.°
Et je vais pas claquer 2000 balles pour un GPU dont l’efficiency est tout bonnement lamentable … Alors que Hopper est à contrario, une réussite à ce niveau là par rapport à Volta
Le fait que les performances ne soient pas proportionnelles on nombre de transistors n’indique pas forcément un manque d’optimisation.
Simplement que selon l’endroit où ces transistors supplémentaires sont « dépensés », les gains qu’ils apportent en sont pas les mêmes (et idem pour le coût qu’ils induisent).
En l’occurrence ici il suffit de lire la fiche technique pour voir que le nombre d’unités de traitement a nettement moins que doublé, mais que par contre le cache a été augmenté massivement. C’est donc sans doute sur ce cache qu’a été dépensé une partie importante du « budget » transistors.
Forcément, ça fait moins gagner en performances que des unités de calcul en plus. Mais ça peut permettre des gains énormes dans certains cas particulier. Et c’est beaucoup moins coûteux (aussi bien en coût de conception qu’en coût de fabrication et en coût d’utilisation) que de multiplier les unités de calcul ou d’augmenter les performances de ces unités.
C’est comme si tu disais par exemple que l’optimisation de l’architecture d’un 5800X3D est catastrophique parce qu’il a plus de deux fois plus de transistors pour à peine 10% de performances en plus…
Attention on va surement te sortir l’argument que t’es juste jaloux car tu n’as pas les moyens. Passer de 1500 à 2000 € c’est complétement abusé. C’était déjà le cas des 1500 € pour la 3090… Mais là ils ont complètement fumé avec leur 4080 à 1500 € alors que la 3080 était à 750 € de base.
Perso je vais clairement attention la réponse de AMD pour voir si ses derniers se réveillent enfin en perf RT.
Euh… L’« efficiency », elle est augmentée de 50% par rapport à la 6900XT, 60% par rapport à la 3090… C’est tout simplement le GPU PC qui a le meilleur rapport performances/W à ce jour. Et tu appelles ça lamentable ?
On peut discuter du prix, de la consommation électrique dans l’absolu… Mais sur le plan de l’efficacité, y a vraiment rien qui puisse lui être reproché…
Les gains d’efficacité entre 2080 et 3080 ont été quasiment deux fois plus faibles, à peine plus de 35% : Test NVIDIA GeForce RTX 3080 : Ampere frappe fort
Sauf que les prix ne sont pas les mêmes. Le MSRP de la 6900XT était de 900$ il y a encore 2 semaines, prix qui a été baissé de plus 20% par AMD, et il reste RDNA3 qui va être annoncé d’ici la fin du mois.
Nvidia a décidé de rester sur une architecture monolitique pour Lovelace, c’était probablement pas la meilleure carte à jouer en sachant que Hopper à une architecture MCM, et que ça sera le cas pour la prochaine gen Geforce chez Nvidia.
Je m’attendais à avoir des étoiles dans les yeux … Bon … Alors soit je me fais vieille, soit il faut se rendre à l’évidence que Nvidia n’arrivera pas à reproduire ce qui avait été fait avec Pascal …
Merci pour ce test intéressant! Compte tenu des performances de la carte, il aurait pu être intéressant de faire des tests en configuration triple screen ou la résolution finale dépasse le 4K, une configuration qui n’est plus si rare de nos jours
Ah mais pour moi, l’exemple du 5800XD est très bon ! Pour avoir benché moi même avec ma 3080Ti un 5800X3D et un 5800X, le gain est même en dessous de 10%, mais pire encore, j’ai notifié une augmentation de température ainsi que des problèmes de performances dans certains jeux très CPU dependant (avec une grosse chute de framerate, notamment sur Anno 1800 et RDR2, là où le 5800X n’a pas ce problème).
Et même l’augmentation de cache sur l’architecture Lovelace ne peut pas justifier plus de 300% de transistors en plus rapport à Ampere … ! On parle de 48 millions de transistors en plus … Alors soit c’est dû à des drivers trop « frais », soit ils sont totalement à la ramasse.
Et le prix … Ce n’est autre que le prix des cartes Ampere pendant la « pénurie » pour justifier la cohabitation des RTX 3000 avec les RTX 4000. Le but premier de Nvidia, c’est de vendre les cartes Lovelace en dehors de toutes logiques commerciales pour « forcer » ceux qui attendaient à prendre une Ampere ! Ni plus ni moins …
Maintenant, au vu de gain de perf, tu prend une 4090, tu abaisses sa fréquence boost à … Aller … 1,9Ghz, tu vas arriver aux perfs d’une 3090 à peu de choses prêt … Si Nvidia est obligé de monter à plus de 2.5Ghz pour démontrer « hey regardez ! Notre 4090 fait mieux qu’une 3090Ti !! » Aaah bah … Oui … Forcément …
Idem pour moi ! Je suis sur les starting-block
Malheureusement, nous ne disposons pas de moniteur avec une résolution supérieure au 2160p. Mais, on pourrait effectivement utiliser le DSR pour « émuler » la 8K et mesurer les perfs. On va y réfléchir ! Sinon LG si tu nous lis, on veut bien une TV 8K pour proposer les meilleurs tests à nos lectrices et nos lecteurs
un triple 2160p fera l’affaire