Pourquoi tu fais rourou, c’est le prix de l’inflation, TSMC il ne fait pas cadeau des WAFER, c’est comme ca, maintenant, personne n’est obligé de changer de cartes tous les 2ans, d’avoir le modele le plus chere.
Car la dans l’idée, quand une 980GTX vaut 500E et une TITAN 1000E, tu as pris une 3090 a 1500E des années plus tard… Encore une fois normal, c’est le cout qui a exploser les factures et TSMC en tant que leader se regale a monter les Tarifs tous les 6 mois sur les prochaines gen de Wafer.
Rajoute a ca Samsung/Hynix qui se regalent aussi avec les memoires ultra rapide.
A la sortie une CG ultra haut de gamme, oui c’est 2ke…
Maintenant si tu joues en 1440p, ta 3090 tient la route sur tous les jeux, la ou des clients en config entrée du milieu de gamme, qui ont fait 1060, 1660, 2060, 3060, se demandent si ils ne vont pas encore changer pour une 5060…
Et en plus, le ratio perfs/prix continue de progresser de génération en génération, donc même si une carte de référence équivalente est plus chère, on a quand même toujours plus de performances pour le même prix…
L’inflation n’excuse pas tout. Ils continuent à pousser les prix plus haut en faisant plus de marge pour voir si on est assez con pour acheter, et on continue.
Sous couvert d’inflation, on double les prix tous les 4 à 5 ans. Les salaires n’ont pas doublé par contre…
Je joue en UWQHD et la 3090 commence à montrer ses limites, surtout parce que les jeux sont opti avec le cul.
Il y a pas si longtemps, un GPU ultra haut de gamme était tranquille plus de 4 ans et coûtait 3x moins cher…
4-5 ans c’est justement ce qui sépare la sortie de la RTX 3090 de celle de la RTX 5090. Et le prix de lancement est passé de 1499$ pour la première à 1999$ pour la seconde. On est loin du x2…
Et encore 4 ans avant la 3090, le haut de gamme c’était la Titan X Pasal, à 1199$. Donc même sur les 8-9 ans, on les a pas les x2…
regarde l’evolution du tarif des wafer chez TSMC et tu comprendra pourquoi Nvidia a autant monté les prix.
le 5nm et 3nm, ont subi au fils des mois des hausses tarifaire continues.
J’ose pas mettre de sites concurrent sur Clubic, donc je te laisse regarder avec google
Et en plus, la taille des GPU a augmenté, donc ils sortent moins de GPU par wafer.
La 3090 c’était 628mm², la 5090 c’est 744.
Donc ça fait au bas mot 16% de GPU en moins par wafer, sans même prendre en compte le fait qu’une puce plus grande engendre plus de surface perdue sur les bords du wafer et un plus grand taux de puces défectueuses (que nVidia paye sans doute quand même à TSMC, car c’est généralement comme ça que ça se fait dans ce secteur…).
honnêtement cette génération n’est pas très ouufff, le gain vient surtout du DLSS 4 mais comparé aux RTX 4000 c’est 10-20% max.
La RTX 5090 est clairement devenue une CG professionnelle … et il n’est pas étonnant de voir des modèles à plus de 3000€.
Le milieu de gamme est plus intéressant, une RTX 5070 Ti qui offre de très belles performances !!!
Tout a fait en 3nm, le Wafer le plus chere a produire pour TSMC, et forcement celui qui engendre aussi le plus de pertes, avec des Dies ratés (pareil google a plein d’article sur le sujet)
j’ai eu la meme sensation, en rasterisation pure et dure, j’ai la sensation d’une 4090 on l’on passe le TDP de 400W a 600W.
Pour moi Nvidia va droit dans le mur, non pas pour ses tarifs, mais son architecture, il consomme trop d’energie pour faire mieux que la gen precedente.
On aurai prefere mieux avec la meme consommation ou consommation moindre.
Du coup c’est quoi dans 2ans, la 6090 a 800W, puis dans 4ans la 7090 a 1000W, ce n’est pas viable.
Nvidia adore se moquer de Intel, mais clairement pour moi Nvidia aujourd hui est a son epoque du Pentium 4, une architecture performante que si tu donnes des Watt.
Heureusement que le P4 a été enterré et aujourd hui AMD montre qu’une bonne architecture peut avoir du rendement en consommant moins, et que dire des ARM.
Apple n’est pas au niveau de Nvidia, mais leur GPU s’ameliore sans cesse, quid dans 10ans .
J’espere pour Nvidia qu’ils ont du renouveau pour les futures rtx60 et rtx70 dans 2 et 4ans
C’est le prix de la hausse des perfs et de l’inflation en général. Ta 3090 équivaudra en principe à une 5070 si on tiens compte de la « loi Nvidia » qui donne une dizaine de mieux par référence à chaque génération : 3090 => 4080 => 5070.
Donc pas de scandale et même une baisse de prix si on veut obtenir les mêmes perfos en 2025
Aucun soucis la dessus je pense. Le « matelas » qu’ils vont avoir sur AMD et Intel pour cette génération va leur donner le temps de développer l’avenir bien sereinement
1550€ en 2020, 2350 en 2025 (4 ans et 3-4 mois), c’est certes pas le double mais pas loin de 60%, ce qui encore une fois n’est pas le cas des salaires.
GTX 1080 en 2016 $745 (ajusté à l’inflation)
RTX 2080 en 2018 $830 (ajusté)
RTX 3080 en 2020 $800 (ajusté mais introuvable à ce prix de toute manière)
RTX 4080 en 2022 $1200
Sacrée augmentation quand même.
Si toi ton salaire a augmenté autant que ça, tant mieux, mais les autres gens n’ont pas cette chance.
Les GSM c’est pareil, à une époque 700€ le GSM c’était considéré comme trop cher, maintenant 1500€ c’est normal pour le haut de gamme…
Je doute que le prix des wafers a augmenté autant que les tarifs. Si c’était le cas, Nvidia aurait surement changé de crèmerie.
Non, la hausse des perfs n’a rien à voir là-dedans, c’est de la logique pure de monter de perfs. L’inflation n’a pas augmenté de 50-60% ou plus.
Non la 3090 ne vaut pas une 5070, mais à une 4070Ti.
La « loi Nvidia » c’était pas ça, la 970 valait une 780Ti, la 1070 une 980Ti, la 2070 une 1080Ti, etc.
Le prix des wafers n’a effectivement pas augmenté autant que les tarifs des cartes nVidia : il a augmenté plus.
18 000$ le wafer TSMC 3nm pour les RTX 5090, contre 10720$ en 2020 pour un wafer 7nm (et à l’époque, les RTX 3000 était en Samsung 8, moins cher que le TSMC 7, qu’nVidia n’utilisait que pour les cartes pro).
Sachant que sur un wafer nVidia aura à minima 16% de puces en moins pour les RTX 5090 par rapport au RTX 3090 à cause de l’augmentation de la taille du GPU, ça fait un coût par puce qui a au bas mot doublé : aujourd’hui rien que la puce brute, pas découpée, pas packagée, pas testée (donc prix à payer aussi pour les puces non fonctionnelles), c’est déjà plus de 200$ à payer à TSMC (90 puces sur un wafer de 300mm, et encore, 90 c’est vraiment optimiste, des puces rectangulaires aussi grandes ça m’étonnerait qu’ils en casent 90 dans un wafer circulaire faisant seulement 94x la surface la puce).
Si la dedans t’as encore 20% de pertes (et oui, c’est pas un taux exceptionnel, sur les process de pointe ça peut même monter bien plus haut que ça), t’approches les 250$. Toujours sans avoir découpé, packagé, et bien sûr sans tout le reste de la carte…
C’est vrai quoi, y a tellement de fondeurs au niveau de TSMC
10720 sans compter l’inflation…
Rien ne les empêche de rester sur les lytho de 2022 si celles de 2024 sont trop cher…
Il reste aussi Samsung qui est très bon, comme ils l’ont fait pour les 3000 et 3000 Super…
Oui, et comme on compare aussi les prix des cartes à leur lancement, c’est bien aussi sans compter l’inflation…
Donc entre une 3090 et une 4090, y a +33% sur le prix de lancement en $ courants, tandis que sur le même temps y a eu au moins +100% en $ courants sur la facture que nVidia règle à son fondeur pour la puce.
Donc le prix fondeur a augmenté largement plus que les tarifs d’nVidia.
Et ce que tu économiseras sur l’achat de ta carte graphique, tu le paieras à l’usage en électricité
Et les lithos plus anciennes ne sont pas forcément moins chères avec une puce d’aujourd’hui : si une RTX 5090 fait 744mm² en TSMC 3nm, elle en ferait sans doute largement plus de 1000 en TSMC 5nm… Donc encore moins de puce par wafer, et un prix unitaire de la puce plus élevé, même si le wafer est moins cher…
Sauf que non. Samsung n’est vraiment pas au niveau de TSMC aujourd’hui… C’est pas pour rien que tout le monde se bat pour faire produire chez TSMC quitte à payer le prix fort.
ta source est de 2023, regarde vers aout 2024, le 3nm a explosé les 20k$
Et avec les futures usines aux USA et en Europe (celle la pas encore sure) TSMC a encore annoncé une hausse du tarif pour 2025…
Vu qu’il est question de 2 gen et pas d’une … on est bien sur les environs +60% du prix.
Pas du tout, pas en France en tout cas, sauf si tu laisses tourner h24 à 100% d’utilisation, mais dans ce cas le souci n’est pas la facture, mais la cabeza
Ou pas, vu que beaucoup recommencent à aller chez Samsung …
ah oui qui ?
Apple ? non il est le Premier Client de TSMC.
Nvidia ? non il est le second client en passe de devenir le Premier, pour soutenir la demande en IA.
AMD ? non plus il est chez TSMC pour produire toutes ses puces Zen et GPU
Alors qui en geant de la tech ?
Samsung justement meme son Pays ne compte plus sur lui pour concurrencer TSMC, enfin c’est un autre debat (voir KSMC).
Samsung son leadership c’est clairement les puces memoires, avec Hynix ils ont tout le marché, et des GDDR7 flambant neuves pareil Samsung ne te le fais pas prix d’ami…