NVIDIA veut frapper fort avec Blackwell, une architecture qui promet de révolutionner les performances graphiques et l’intégration de l’IA dans les jeux et la création de contenu. Dévoilée au CES 2025, cette nouvelle génération soulève autant d’espoir que de questions quant à son impact réel.
Waaaa ça va poutrer !
Mais est ce suffisant pour faire tourner Crysis ?
Au delà de l’architecture il y a l’approche du refroidissement qui est aussi très intéressant, il y a une vidéo avec un ingénieur de NVidia qui est vraiment intéressante sur tout le process qui les a amené à ce modèle, les deux ventirad traversant, la carte centrale, les chambres a vapeur, le métal liquide pour l’interface thermique…
Pour le reste plus qu’à attendre les benchs
Sur le papier, c’est génial. Concrètement, sauf si j’ai mal compris, ça implique l’implémentation par les dévs pour un jeu. Et c’est là que ça coince, non ? Les dévs ne vont pas se baser uniquement sur ces techs pour développer leur jeu (financièrement, c’est du suicide). J’entends par là que les dévs vont faire en sorte que leur jeu soit compatible avec le plus de configurations possibles pour être économiquement viable.
Du coup, nous aurons des jeux qui sous exploiteront ces technologies prometteuses. Ou j’ai mal compris l’intérêt ?
Spoiler, cette article est sponsorisé, cette architecture est celle qui apporte le moins par rapport a la précédente depuis les premières RTX .
Vraiment la génération a évité pour tout ceux qui on une carte correcte
Il faut voir la suite si on regarde historiquement le ray tracing c’était uniquement chez NVidia au départ le DLSS idem.
Tout dépends de comment la technologie est rendue accessible aux développeurs, le fait que ca soit par exemple déjà inclus dans DirectX va clairement aidé aussi, après c’est une option en plus dans le jeu, d’activer X ou Y, ce n’es pas comme avant DiretX/OpenGL/Vulkan ou il fallait développé directement pour une carte spécifique.
Aujourd’hui on vient seulement de voir sortir le premier jeu requérant une carte faisant du Ray Tracing (Indiana Jones). On verra à l’avenir mais comme pour le Ray Tracing et le DLSS cela peut devenir régulier dans quelques années.
je suis aussi ultra dubitatif car les premiers leaks qui arrivent ne sont guère encourageant (24k au gpu score sur Timespy extreme pour la 5090 alors que la 4090 fait du 20k c’est pas la folie non plus, ok ca reste un bench mais ca donne une première idée, on verra le 24 bien entendu) et sachant qu’en plus on sera dépendant du DLSS4 et du MFG (avec tous les défauts que ca peut avoir) , je ne suis pas aussi enthousiaste que ça sur cette nouvelle gen (vu sur pas mal de forums , ca joue la prudence aussi)
Des cartes feignasses qui n’ont plus rien dans le ventre dès que tu leur enleve le DLSS et la génération de fake frame par IA. C’est dommage de la part d’nvidia. Je crois que je vais passer chez amédé pour le futur changement de config.
Attendons de voir les tests avant de juger, les cartes ne sont même pas sorties.
Les devs multiplateformes cibleront les consoles en premier dans la plupart du temps, puis implémentent DLSS avec les outils fournis par NVIDIA. Heureusement l’implémentation de DLSS est simple pour les devs, mais le fine-tuning pour éviter les artéfacts visuels prennent plus de temps.
sans le DLSS elles n’ont rien d’extra -_-
FP4 ça va mettre un méchant coup de boost aux gros llm optimisés 4bits, et effectivement pour beaucoup de calculs l’IA peut se contenter de précision type 90%, comme certaines puces analogiques.
4 bits
0 (off 0 volt)
Bits 1bit /2bits /3bits /4bits
bit 0 /bit 1 /bit 2 /bit 3
Calcul 2e0 2e1 2e2 2e3
Valeurs 1 2 4 8 total 15, donc 16 avec le 0 parfait pour stocker des données en Hexa ou des matrices à 2D en 4X4, ou des matrices à 4D contenant 1bit par dimension.
Article assez complet, Merci @colin @redacteur
Maintenant c’est Cities Skylines 2 le nouveau Crysis ^^
Tout à fait, nous testerons ça en détail dès que nous aurons reçu la carte., mais le nouveau système semble prometteur.
C’était aussi le cas pour le ray tracing lors de l’arrivée des premières RTX, depuis toute l’industrie ou presque l’a adopté. Bien sûr, il faudra du temps, mais si les gains en performances et en ressources de développement sont intéressants, ça peut vite se développer. Malheureusement, les architectures des consoles actuelles et même des prochaines générations ne seront pas forcément optimisées pour le neural rendering.
Time Spy Extreme n’est plus du tout adapté aux cartes graphiques modernes. Ils se contente d’un score basé uniquement sur la rasterisarion. Par ailleurs il n’est plus pertinent de dissocier les performances brutes et les techno IA, il faut évaluer les perfs dans leur ensemble. Après si vous êtes réfractaires au DLSS ou a la FG, rien ne vous empêche de les désactiver, mais autant acheter une console ![]()
Heureusement qu’il y a le FSR ![]()
En vrai FSR + un litre de wisky et tu n’y verra que du feu ![]()
Petite réponse pour compléter celle que t’a faite @funkee.
Ce n’est pas tant qu’elles n’ont plus rien dans le sac, mais il y a plusieurs facteurs qui limitent la progression, en math on approche du 0 mais on le touche jamais, la courbe s’écrase et pourquoi ?
On a inclus des techno qui ajoutent beaucoup de calculs, raytracing et surtout le path tracing qui inclu la radiosité de la lumière sur les lancés de rayons, c’est à dire le nombre de rebonds que peut faire un photon sur plusieurs surfaces.
D’un point de vue de puissance c’est une forme logarithmique, si on considère un bit par photon et 1 bit supplémentaire par rebonds on a vite fait de passer de 2 à 16 plus en peu de rebonds.
C’est déjà un premier élément de réponse
Le seconds élément de réponse vient de la résolution, si tu l’as remarqué dans le gaming ou les TV, les résolutions sont souvent de 2K et 4K.
4k c’est 4 fois le nombre de pixel du full HD.
Hors en rasterisation, tu as un algo qui convertit dans un espace 2D ce qui est en 3D, a contrario ( et de manière tout a fait théorique) une augmentation par X4 pour de la 2D se traduit en une augmentation x8 sur le moteur et les vertex avant que ceux ci ne soient rasterisés sur ton écran en 2D
Si tu additionnes ou même à voir … multiplies les valeurs de ces deux éléments tu as quasiment une augmentation de la demande de puissance X16 à x48. ( en gros)
Donc contrairement à ce que tu crois, les GPU évoluent avec l’IPC et les besoins ne pouvant en 5 ans d’augmentation d’IPC (environ 100%) compenser cette demande de puissance, il est tout à fait normal d’avoir recours à l’IA en attendant.
Les gens qui font ces GPU sont plus intelligents que toi ou moi et surtout bien plus nombreux, c’est une masse de cerveaux de haut niveau, aussi bien en ingénierie qu’en vision long terme voir marketing.
Pourquoi ?
Est il plus intéressant de changer de techno et passer à des substrats 10X 100X plus rapides que la silice, que de développer l’IA et de pousser la techno actuelle à sa limite?
Abandonner l’IA serait alors un mauvais calcul de risque puisque celle ci fait durer les technos, des technos dont la valeur des lignes de production augmente de manière exponentielle et il faut les financer.
Donc quand on passera au graphène ou à l’opto électronique on aura une IA bien balaise et une RD sur les technos nouvelles qui aura permis en temps et en heures de fournir quelque chose de solide et issu d’un accord et consortium de normes pour l’avenir des puces.
Même l’archi pourrait s’orienter à 90% IA, les futurs GPU ne seront que des générateurs de Vidéos ou de textures très élaborés sur un modele 3D relativement simple, en d’autre terme, les cœurs de rasterisation seront réduits au fur et à mesure au profit de cœurs IA et autre tensors/NPU.
La question à ce stade que tout le monde devrait se poser est :
Qui osera casser cette courbe ( de Moore) prévisible, si chère aux actionnaires, et mettre sa techno post silicium/transistors sur le marché mainstream en premier.
J’ai ma petite idée, un pays, lointain qui créé plus de 150 000 ingénieurs par an et renforce son outil de production électronique interne en raison de sanctions mesquines ou justes ( à votre appréciation…), suivez mon regard ^^
Merci pour vos retours. Ca me donne l’impression d’un pari tout de même : il faut que ça soit adopté pour que ça marche. J’imagine que Nvidia va sortir le chéquier pour « aider » les devs à adopter cette solution.
Dans mon premier commentaire, je pensais par exemple à Starfield : partenariat avec AMD donc pas de DLSS natif à la sortie. Un mod est sorti très rapidement mais il a fallu attendre plusieurs mois avant d’avoir un support officiel.
C’est ce que je crains ici même si, comme le précise @Alarai, l’implémentation dans DirectX de Neural Rendering aura un poids certain.