Commentaires : NVIDIA Omniverse : l'IA générative au service du développement des jeux de demain?

NVIDIA a profité de la GDC 2023 pour parler de sa plateforme Omniverse, qui entend poser les bases de l’IA génératrice de contenu dans les jeux.

2 « J'aime »

Autant le visage est superbement modélisé, autant les animations faciales sont vraiment nazes, c’est ultra rigide, surtout après avoir vu la démo de metaHuman d’Unreal sur hellblade 2.

Le but de cette démo était surtout de présenter la technologie Audio2Face à l’œuvre, se concentrant sur la synchronisation labiale multilingues en temps réel.
Et aussi pour glisser un peu de ray tracing dans le mix, parce que NVIDIA ^^

2 « J'aime »

Les jeux étant de plus en plus cons, c’est clair qu’une IA pourra en pondre des masses.

1 « J'aime »

En temps qu’ancien développer ayant touché à presque tout, j’ai qu’une seule chose à dire.

Chapeau ! :upside_down_face:

2 « J'aime »

Les courts métrages pourrait très bien concurrencer le cinéma et les séries TV à se rythme.

Dead Fantasy est une preuve qu’on peut faire sans, mais avec… :cold_face::melting_face:

C’est niveau codec et multilingue que le challenge se cache question vidéo et précalculés.

Donc comme PhysX, direction open source afin de rejoindre « badaboum ».

Et une IA pour optimiser les jeux ? Non ? Bon tant pis, merci quand même.

1 « J'aime »

:star: Super Mario 64 PC Port - SM64RT - Ray Tracing Comparison - Part 1 - YouTube

Un simple plugin dans un emulateur ferait autant ? :thinking:
Sous WinAmp il y avait même un plugin qui chargait plusieurs plugins. :wink:

Juste des RT shadows j’ai l’impression, non ?

1 « J'aime »

Oui, bien que j’ai dans l’idée que les « volumes » soit plus détaillées.
Un peu comme on nous a « vendu » la tessellation.

Sur un jeu comme celui ci avec une palette de couleurs tirant vers N et non R, donc game play tout public mais graphisme PEGI 3, il arrive même que certains objets ou effects soient mieux sans RT. :neutral_face:

Ouais la majorité des jeux RT le sont parce que ça fait bien sur le papier, mais généralement c’est soit beaucoup trop discret soit beaucoup trop mirroir et donc pas réaliste.

Pour ma part, le dit metaverse pourrait très bien se trouvé comme dans un animé tel sword art online. Le jeu, lui, c’est arrêté bien avant.

Il y a déjà des d’outils pour la traduction en temps réel du son en texte ou son en son.

La caméra… Retranscrire les réactions du visage de l’adversaire ou du partenaire.

Entrer dans un univers où ont se comprendrait tous serait un peu plus vaste que le site de l’animé original.

Les Jeux MMORPG pourrait bien y prendre un tournant.

J’ai pas eu l’occasion de jouer en réseau et de voir des joueurs en cosplay dans command & conquer alerte rouge 3, mais les acteurs du jeu se sont très bien amusez je pense.

ok

On peut comparer la modélisation, mais concernant les animations, on est sur deux choses totalement différentes : Metahumans se base sur du performance capture : on reproduit les animations faciales de l’acteur. La démo d’Nvidia montre une IA qui « devine » l’expression faciale en fonction simplement de l’audio.
Donc c’est sûr que le rendu final n’est pas aussi bon, mais technologiquement parlant, il est assez impressionnant.

1 « J'aime »