Commentaires : La nouvelle GeForce RTX 4090 serait 2,5 fois plus rapide sur Cyberpunk 2077 que la plus rapide des RTX 30

Ce qui m’a frappé dans la keynote, c’était surtout le faible temps consacré aux cartes graphiques pour les gamers par rapport au marché professionnel (cloud, IA etc.). Cela se comprend d’un certain côté : il est bien plus pénible de vendre au détail 100 000 CG que d’équiper tout d’un coup 100 000 serveurs chez AWS. En plus, il y a des chances que le marché pro soit plus rentable. Mais la conséquence, c’est qu’ils n’en ont plus grand chose à faire des joueurs.

Une autre chose qui m’a sauté aux yeux, c’est qu’ils sont technologiquement au bout de la route. Tout ce qu’ils peuvent faire pour augmenter la puissance c’est augmenter le nombre de core (la techno ne leur permet visiblement pas de monter la fréquence). Mais ça a une limite car le prix semble être dans le rapport des surfaces de silicium et la consommation aussi. Résultat, ça fait un 4090 qui est moins puissante, qui consomme plus et qui coute plus cher que deux 3090 (ça ce met en SLI ?). Bref, ils ont passé le pic de ce qu’ils peuvent faire.

La 4090Ti sera surement à 2449€ pour 3% de perf.

Non, pas du tout. Ca augure juste d’une entrée de gamme à 500$ minimum en MSRP, ce qui est énorme pour ce segment et qui de toutes façons n’arrivera pas avant 6 mois à 1 an.

Oui et non. C’est en effet du bullshit d’en faire le nouvel argument marketing, comme le ray-tracing l’a été pour les RTX 3000, alors qu’il ne s’agit que d’un upscalling et qu’en effet, il suffit de baisser la résolution pour s’en passer.

Et non, car certains moniteurs n’aiment que leur résolution native et baissent en qualité d’image si l’on baisse en résolution et non pour le FSR qui n’est que la réponse d’AMD pour ne pas laisser Nvidia occuper tout le terrain médiatique avec ses technologies propriétaires à deux ronds. De plus de DLSS et le FSR sont très différents tant dans l’esprit que dans la mise en œuvre.

Mais au final je suis bien d’accord, axer sa compagne marketing sur une solution d’upscalling, comme le fait Intel et comme semble vouloir le faire Nvidia, c’est ridicule et j’espère que les clients s’en rendrons compte.

1 « J'aime »

Y avait pas que 3% de perfs entre la 3090 et la 3090ti. C’est plus de l’ordre de 9-10% ce qui est aussi relativement faible.

Oui, si on ne raisonne qu’en terme de Frame Per Seconds, j’aurai du le préciser. Mais je reste formel, il ne faut pas laisser Nvidia nous refaire le coup du Ray-Tracing avec son DLSS 3. Cela reste une technologie ultra verrouillée, à l’adoption par les studios très aléatoire.

Je suis étonné des commentaires, ce qui polue dans un pc c’est la construction, pas tellement l’électricité ensuite.
800watts dans une machine gamer c’est peanuts par rapport aux gens avec chauffage électrique, je pense que ça ne se compte même pas en pourcentage de la consommation nationale le soir le gaming.

Et pour le reste, la gamme nvidia continue à couvrir toute la gamme de prix depuis des cartes à 100 euros, il n’est absolument pas nécessaire d’avoir une RTX pour jouer, sauf si on veut du raytracing et du DLSS et la plupart des gens jouent d’ailleurs sur des IGP sur portable fullHD…
Que des gens veuillent mieux, quelle qu’en soit la raison, permet à un marché de carte graphique à 2000euros d’exister, ça n’en fait pas une obligation. Par contre ce qui est intéressant c’est que ce haut de gamme sert d’étalon à toute la gamme derrière donc il laisse préfigurer des gains de performances même sur des cartes à pas cher.

1 « J'aime »

Je plaisantais ^^.
Mais le DLSS3 sera leur fer de lance, une techno propriétaire de surcroit. Est-ce que les studios suivront ? Si c’est le cas, c’est jackpot pour Nvidia (surtout que prévu dans tous les gros moteurs 3D, d’UE à Unity en passant par Snowdrop etc…). Si non, ceux équipés de 30xx y resteront, les autres risquent d’attendre un bon moment avant d’acheter cette nouvelle gen et privilégieront l’ancienne (via occase et « éventuelle » baisse de prix).

Les studios auront déjà à gérer le DLSS2, le FSR, bientôt le XeSS, ils ne devraient pas s’intéresser tout de suite au DLSS 3 qui ne va concerner, pour commencer, qu’une petite minorité d’utilisateurs. S’ils le font, c’est que Nvidia aura fait le forcing ET sorti le portemonnaie.
D’un autre coté, pourquoi pas, ils l’ont fait pour le RT, pas de raison qu’il ne le fasse pas pour leur nouveau truc-trop-top-moumoute-qu’on-est-les-seuls-à-faire.

C’est une façon de dire, j’ai plus les bench en tête mais c’était ridicule, 10% dans le meilleur des cas pour un prix largement supérieur.

Me voilà minable avec ma petite 3090