Commentaires : Les performances d'une RTX 4090 pour la moitié du prix : NVIDIA dévoile enfin les GeForce RTX 50 « Blackwell »

Le leadership de Samsung c’est pas seulement la mémoire, c’est aussi la photo, les écrans, et les GSM en général.

Personne n’a prétendu qu’il faisait un prix… mais comme TSMC à les dents qui rayent le parquet, n’a plus de place (autre que pour 2-3 géants), ils ont tendance à en profiter pour augmenter drastiquement leur prix. Et c’est pas parce que les concurrents font moins bien, qu’ils n’existent pas pour autant, loin de là…

J’en conviens, Samsung est sur pleins de secteurs de la micro-electronique, la je parlais par rapport nvidia et ses cartes graphiques, ou nos PC en general.
Oui nvidia vend chere les cartes, mais quand on analyse la situation, on commence a bien comprendre le pourquoi du comment.
Surtout qu’un autre detail important rentre en ligne de compte qui peut encore augmenter le tarif dans un avenir tres proche.
La taxe douanière… Car etre un super client pour TSMC c’est une chose, mais ca n’exonère pas de la taxe douanière. Et si le prochain President Trump (20 janvier il sera investi), vient encore augmenter les taxes, nvidia le répercutera irrémédiablement sur ses cartes.

Evidemment que c’est très cher de faire des GPU, surtout vu les investissement notamment en IA, mais ils se font des marges tellement énorme (c’est pas Apple non plus, m’enfin, c’est pas vilain) qu’ils pourraient faire un effort. C’est des GPU pour particulier (enfin c’est censé être le cas), 2400 balles le GPU pour un particulier ? C’est n’importe quoi. Déjà à l’époque des Titans (single GPU, les duals, c’est encore autre chose, et pas comparable en plus), les prix commençaient à être absurdes, mais bon les Titans on les voyait surtout comme « semi-pro » (même si ça ne veut pas dire grand-chose), maintenant ça s’appelle « xx90 » et le prix à doublé par rapport aux Titans. Alors, oui l’IA coûte chère, la R&D aussi, TSMC se touche, l’inflation augmente etc. OK, mais de là à pousser de plus en plus haut ? Et pas qu’un peu. Prendre au moins 300 à 500€ par gen (sur les xx90), il faut arrêter.

Et puis le coup des « 5070 = 4090 » on n’y croit pas une seconde, logiquement ça devrait être le cas (vu qu’ils faisaient comme ça avant), mais visiblement ça risque d’être uniquement en DLSS ou juste en RT. Le prix reste « correct » (à l’époque actuelle …) pour une xx70, mais bon, ça sent encore la douille.

Ce n’est pas ambitieux, c’est du flan.

oué c’est triste de voir à quel point les gens croient n’importe quoi … on a pas besoin d’être expert pour savoir qu’une RTX 5070 ne peut pas fournir les performances d’une RTX 4090 …

le DLSS te donne l’impression de jouer à 200 FPS mais en réalité tu joues à 50 FPS et ta la même expérience que 50 mais tu vois 200 FPS donc t’es content tu te dis que ta pas déboursé 2000€ pour rien.

Parfois je comprends pas les gamers … On peut pas créer des images que vous n’avez pas provoqués, je veux bien comprendre l’upscaling mais le frame generation c’est du n’importe quoi il crée des frames que vous n’avez pas provoqués ça veut dire qu’une partie de ce que vous voyez c’est du fake. avec le Multi-Frame Generation … où la majorité des frames sont créées par l’IA … est-ce que c’est un jeu ça ? … si elle est mal implémenté on aura même plus l’impression de jouer à un jeu.

Très bonne gen, la 5090 sera mienne dans 1 mois. Je ne joue pas,c’est pour un usage pro je precise.

C’est pas ambitieux c’est culotté :smiley:

Comment on peut dire qu’une 5070 égale la 4090 sans donner les benchs sans DLSS ?

Seule la 5080 peut rivaliser avec la 4090 et encore !

Le fist c’était le passage de RTX3000 à 4000. Nvidia à repris les prix affichés pendant la crise Covid + Crypto et les a utilisé comme prix public pour la nouvelle génération.
Maintenant l’augmentation est « faible » en comparaison (compte tenu de l’inflation).

Rappel :
1080 : 669€
2080 : 829€
3080 : 719€
4080 : 1469€ (WHAT THE F***).

Je suis passé d’un laptop gtx 1650, et une tour gtx 970. Pour un laptop rtx 4060 AMD 6coeur, ça change beaucoup notamment les soft qui utilisent le gpu.
Perso je cours pas après la dernière technologie, il faut un saut de 100% et la je change et encore si j ai besoin 60fps me suffit, pas de Ray tracing et je fais du 130fps battlefield 1 ou 5 ultra,
mais bon ça rend fou des jeux super beau d avant qui tournent mieux que les derniers et pas plus beaux. Trop de mauvaise optimisations, mais j ai la même sur des soft audio ou 3d, des utilisations cpu et gpu non justifié.

Je suis d’accord avec toi, la logique est la montée en perfs, mais je suis désolé, le cout de recherche et developpement (avec les salaires + les couts de production) n’a pas été en baissant, donc oui, on se retrouve avec une inflation de prix , très visible sur la gamme xx90. Savoir qu’une 4070ti a les perfs d’une 3090 pour un prix inférieur reste finalement logique.
Je ne vois pas pourquoi cela fait de nous des pigeons : on connait les prix et on sait qu’à chaque génération on en beaucoup (voir beaucoup mieux) que celle d’avant, et cela se paye , en nos âmes et conscience.

Oui mais mettre en avant la hausse de perf (pas si grosse que ça d’ailleurs) en excuse d’une hausse de prix, ça n’a pas de sens. S’ils ne sont pas capables de faire plus puissant, alors ils ne sortent pas de nouveaux GPU, la hausse de perf est logique, la hausse de prix non.

Oui, c’est ce que je dis, mais c’est pas trop le sujet du mécontentement de la hausse de prix.

Ce qui fait de nous des pigeons, c’est que les prix étaient déjà très élevés, on a acheté, ils ont pris 500 balles, on a continué à acheter, donc forcément qu’ils continuent de pousser le bouchon pour voir à quel point on est des pigeons, et ils auraient tort de se le priver, Apple (et les autres) fait pareil.
Et non, on a pas « beaucoup mieux » que la gen d’avant, on a une progression logique des perfs (et encore, c’est en mettant de côté le côté « un peu » BS des annonces de perfs).

1 « J'aime »

Si ça se poursuit, une grande majorité de joueurs PC seront inabordables dans 1 ou 2 générations de cartes. A moins de faire de gros compromis avec DLSS et les RTX xx70.
C’est peut être ce que NVIDIA & co veulent au final, le marché de datacenters est tellement lucratif, et plus tard le rendu des jeux se fera majoritairement par le cloud. Les prévisions financières ont anticipé la baisse des ventes de CG gaming au détail.

@Rédac / webmaistre : faites gaffe aux miniatures de haut de page, cet article parlant de CG réclamant des alim’ à 1000W est épinglé à côté de « Cloud computing : cet hébergeur fait rimer technologie avec écologie »
Le décalage est … cocasse dirons nous !

Tiens, pour notre culture générale, j’ai vu sur youtube une video de test comparatif entre une Titan RTX 24gb et une 3070 8gb… Devine qui a les meilleures perfs pour un prix largement inférieur au lancement :wink:

Celle qui est faite pour les jeux, logiquement…

20% de perf réelle en plus car c’est plutôt ce à quoi il faut plutôt s’attendre sans DLSS 4 pour environ 50% de consommation supplémentaires…
C’est loin d’être ce que j’appelle une révolution, tt au plus une évolution me semble bien plus appropriée
Mais comme d’habitude tt les (pseudos) professionnel qui vont se voir offrir un CG Nvidia haut de gamme ont du mal à rester sincère et objectif !

De la 4090 à la 5090 c’est plutôt 800 et même 850€ supplémentaires sur le MSRP (1599€ VS 2349)
La 4090 était le meilleur choix de la Gen 4000 du coup ils ont augmenté les tarifs des 5090 pour pousser à acheter des 5080 (déjà VRAM limited avant meme leurs sortie dans certains jeux)
Effectivement Rourou et pas qu’un peu :joy::joy:
Le reste de la gamme ça va être 50% de conso supplémentaires pour un 20% de perf en plus (au mieux) sans l’usage du DLSS 4
Double rourou :rofl::rofl:

Non la 4090 n’était pas le meilleur choix (les haut de gamme ne le sont jamais, pas même ma 3090), mais la meilleure, ça oui indéniablement.

1 « J'aime »