Toujours plus d’intelligence artificielle semble être le maître-mot chez NVIDIA qui s’appuie sur le rendu neuronal, une technologie qui monte en puissance, pour y parvenir.
Il est vrai que le visage est d’un naturel très naturel. Cela me fait penser aux portraits peints royaux ou autres d’une autre époque où le peintre supprimait tous les défauts afin de montrer le personnage dans sa jeune splendeur inaltérée…
Le problème du rendu neuronal est que c’est une technologie disruptive. Il va falloir une période charnière, que les moteurs utilisent cette technologie, que les dévs de jeu l’utilisent. Et que la concurrence existe et s’adapte.
Bref, un rendu 100% neuronal, même si la technologie existe, aura besoin d’être adopté. Il y a déjà eu par le passé des technologies plus performantes que d’autres alternatives (et moins chères parfois) qui n’ont pas survécu, faute d’adoption. Pensons par exemple à la guerre des supports disques (HD DVD vs Blu Ray par exemple, ou VHS vs Betamax).
Reste à voir qui utilisera cette technologie. Parce que faire de jolies vitrines, c’est bien. Mais n’oublions pas que dans jeu vidéo, il y a la notion de jeu.
Ou comment pousser encore un peu plus longtemps la course à la consommation et à la puissance.
Déjà ici, on nous laisse entendre que pour bénéficier de cette tech, il faut, au moins, une RTX 5090, une carte entre 2500€ et 3000€. Et ce Monsieur voudrait que tous les jeux modernes nécessitent ce genre de puissance de calcul ? Autrement dit, que 100% des joueurs soient obligés de s’équiper avec des cartes à trois mille boules pour pouvoir jouer.
D’ailleurs, ce n’est pas le même gars qui, démo à l’appui, nous sortait, il y a quelques mois, que 100% des graphismes à l’avenir devraient être du ray tracing, encore un truc bien léger à calculer. Au moins, à défaut d’être constant dans ses propos, on ne peut pas dire qu’il n’est pas constant dans sa connerie.
J’attends avec impatience, un logiciel type losless scaling avec generation de video basé sur le jeu en temps réél, bientot on rejouera a des jeux vieux de 20 ans qui seront aussi beau que des productions hollywoodiennes.
« joust en 4k »
On ne dirait pas que tu as bien lu l’article…
Le Neural rendering est utilisé pour le frame generation donc il suffit d’avoir une 4060/5050. Pas besoin de 3000€ pour une RTX 5050 qui peut utiliser le Neural rendering pour 75% du rendu.
Il utilise la 5090 comme exemple parce que plus la carte est puissante et plus le rendu est de bonne qualité mais c’était déjà le cas avec le rendu « classique ». C’est également une technique marketing, tu met en valeur le produit le plus cher et le plus performant.
La fin de ton commentaire montre que tu n’as pas compris comment ça marche non plus car quand il dit 100% du rendu c’est Ray tracing compris donc aucune contradiction dans ses propos…
Les puces de NVIDIA (et leur communication) ne sont pas sans défaut mais c’est stupide de critiquer sans comprendre.
Je ne connais pas en effet tous le coté technique, mais je sais lire. L’article n’a pas parlé de RTX 4060/5050, mais bien de RTX 5090, plusieurs fois.
Il parle aussi de 32 go de mémoire vive nécessaires et que « L’utilisation de la GDDR7 associée à l’architecture Blackwell aura été une étape indispensable », donc, encore une fois, RTX 5090 et nulle autre. Donc, peut-être est-ce toi qui n’as pas bien lu.
Quant au discours de Nvidia, je le décortique depuis des années et il est toujours le même : « MES technologies sont l’avenir et sont indispensables », et « achetez toujours plus puissant pour bénéficier de ces technologies indispensables ». Tu dis que c’est un discours marketing ? Bien-sûr que c’est du marketing, ce n’est même que ça et c’est bien ce que je reproche. C’est toujours quelque chose qui vise soit à savonner la planche de la concurrence, soit à refaire passer les clients à la caisse. On n’a pas encore fini d’intégrer dans nos jeux les autres technologies poussées par Nvidia, qu’ils nous parlent déjà d’une autre « technologie révolutionnaire » sur laquelle, ô surprise, ils sont leader et, ô surprise, il va falloir du haut de gamme.
Alors, j’ai une idée, et si Nvidia nous lâchait un peu la grappe avec ses « technologies révolutionnaires » qui n’ont jamais rien révolutionné et qu’il essayait déjà de rendre les autres technologies qu’il nous a imposées à coup de millions accessibles à tous, avant de chercher à nous en imposer encore une nouvelle.
Vu l’impact de l’IA au présent et au futur, je me demande si l’avenir n’est pas dans les APU (commpe le AMD 395+) ou la grosse quantité de mémoire est partagée CPU/GPU/NPU dans un package qui permet une « collab » plus rapide entre chaque élément.
Non rien ne surpassera Joust ^^ et puis je parlais de 20 ans, pas 40 .
Imaginer un jeu vidéo dont toutes les scènes seraient générées en temps réel et décrites par des prompts parait incroyable. C’est un tremblement de terre dans les équipes de développement tellement cela risque d’être disruptif.
Si c’est le cas, l’avenir est moins aux graphistes, musiciens, et codeurs de moteur 3D mais à ceux qui maitriseront le mieux les prompts.
Certes, aujourd’hui, il faut une RTX 5090, mais demain, une RTX 7050 ou 7060 procurera la même puissance pour 4 fois moins cher.
Nvidia va forcément essayer de pousser les gens à essayer d’acheter leurs cartes les plus chères. Mais il serait bon de remettre du contexte, le Neural Rendering a été implémenté dans DirectX, ce n’est pas du tout réservé à la RTX 5090 et encore moins à Nvidia.
Tu trouves des RX7600 à environ 200 euros. En puissance de calcul, c’est 22 TFLOPS en FP32 et environ 44 en FP16… C’est déjà très largement suffisant pour faire des choses bluffantes en terme de rendu.
Les vrais savent que le graphisme n’est qu’un détail
Nvidia nous aurait menti ?!?
J’ai bien lu l’article dont ce passage :
« la frame generation qui intercalait une frame rendue intégralement par l’intelligence artificielle(…)cette utilisation de l’IA est aujourd’hui baptisée Neural Rendering »
Une 4060 peut utilisé le Neural rendering mais uniquement pour générer 50% du rendu (1 frame sur 2), les 50XX passe à 75% du rendu (3 frame sur 4).
Alors bien sûr il ne vont pas mettre en avant le fait qu’une carte a 250€ peut le faire, c’est une entreprise il doivent faire des bénéfices comme n’importe quel autre entreprise.
Mais la communication n’est pas mensongère non plus : dans un autre article publié il y a quelques mois, le rédacteur faisait la comparaison du multi frame generation avec une 5060 et une 5090, le résultat est une bien meilleure qualité avec la carte la plus puissante mais c’est plutôt logique.
Et ce n’est pas étonnant qu’ils soient aussi sûr d’eux parce que les dernières technologies (Ray tracing, upscaling IA, Neural rendering) ont bien été adopté par la concurrence après (et sûrement à cause de) NVIDIA.
Le leader du marché forme les nouvelles tendances c’est partout pareil. Ça continuera jusqu’à ce qu’un concurrent trouve un meilleur concept/technologie ou que NVIDIA fasse un mauvais choix. Peut être que rendu 100% IA est une mauvaise idée ou peut être que ce sera une révolution. Pour l’instant, on ne peut pas savoir
Attention à ne pas sur-interpréter ce que dit NVIDIA. En l’occurrence on parle de 100% des pixel générés par IA. C’est à dire qu’on utilise un vrai moteur 3D qui va générer des images en basse résolution, puis générer l’image en haute résolution via l’upscaling de l’IA.
On peut ensuite imaginer qu’une image sur 4 est générée via upscaling et que les 3 autres sont générées via multi-frame generation. De cette façon on garantie la cohérence de l’univers via une modelisation 3D et des scripts bien classiques (beaucoup plus efficients que l’IA), mais 100% des pixels vus par le joueur sont générés par IA.
La nuance réside dans le fait que NVIDIA dit que 100% des pixels et non 100% de l’image qui est générée par l’IA. Ton interprétation penchait plutôt du côté de la seconde affirmation, ce qui n’est pas ce qu’a déclaré NVIDIA.
Je ne dis pas que ça n’est pas possible. Google a fait une démo technique de cela récemment, mais cela ne tourne qu’en basse résolution et nécessite une infrastructure gigantesque dans le cloud pour le faire. Qui plus est, difficile de garantir une expérience unifiée et cohérente de cette manière. Difficile d’imaginer ça en jeu vidéo quand on n’est pas capable de maîtriser l’expérience qui sera restituée au joueur. Si à chaque fois qu’on redémarre le jeu, on se retrouve avec un personnage au visage ou à la tenue différente, que les paysages ne sont pas identiques, on aura vite fait de se perdre. Ça peut être une expérience en soi, mais on n’est plus dans le récit d’une histoire linéaire et maîtrisée par les scénaristes. Ce serait une expérience d’un autre type. Or je pense que beaucoup de joueurs sont plutôt attachés à vivre une histoire qui raconte vraiment quelque chose.
Le marketing n’est pas toujours un exercice de vérité…