NVIDIA a profité de la GDC 2023 pour parler de sa plateforme Omniverse, qui entend poser les bases de l’IA génératrice de contenu dans les jeux.
Autant le visage est superbement modélisé, autant les animations faciales sont vraiment nazes, c’est ultra rigide, surtout après avoir vu la démo de metaHuman d’Unreal sur hellblade 2.
Le but de cette démo était surtout de présenter la technologie Audio2Face à l’œuvre, se concentrant sur la synchronisation labiale multilingues en temps réel.
Et aussi pour glisser un peu de ray tracing dans le mix, parce que NVIDIA ^^
Les jeux étant de plus en plus cons, c’est clair qu’une IA pourra en pondre des masses.
Et une IA pour optimiser les jeux ? Non ? Bon tant pis, merci quand même.
Juste des RT shadows j’ai l’impression, non ?
Ouais la majorité des jeux RT le sont parce que ça fait bien sur le papier, mais généralement c’est soit beaucoup trop discret soit beaucoup trop mirroir et donc pas réaliste.
ok
On peut comparer la modélisation, mais concernant les animations, on est sur deux choses totalement différentes : Metahumans se base sur du performance capture : on reproduit les animations faciales de l’acteur. La démo d’Nvidia montre une IA qui « devine » l’expression faciale en fonction simplement de l’audio.
Donc c’est sûr que le rendu final n’est pas aussi bon, mais technologiquement parlant, il est assez impressionnant.