NVIDIA Omniverse : l'IA générative au service du développement des jeux de demain ?

23 mars 2023 à 16h45
16
© GSC Game World / NVIDIA
© GSC Game World / NVIDIA

NVIDIA a profité de la GDC 2023 pour parler de sa plateforme Omniverse, qui entend poser les bases de l'IA génératrice de contenu dans les jeux.

L'objectif de cette nouvelle technologie est d'aider les développeurs à améliorer leurs créations et les assets de leurs jeux, notamment sur la production de personnages assez sidérants de réalisme.

NVID-IA en remet une couche

L'amour de NVIDIA pour l'intelligence artificielle n'est plus à prouver, et voilà maintenant que la société se fend d'une IA générative s'intéressant au développement de jeux vidéo. Une tendance en ce sens commence à s'inscrire, alors qu'Unity a également aujourd'hui annoncé sa propre IA dans le domaine.

Dans le cas de NVIDIA, cela passe par sa plateforme Omniverse, qui accueille désormais des services cloud comme ACE (Avatar Cloud Engine). Cet outil permet de créer des modèles de personnages photoréalistes et expressifs en utilisant NVIDIA Riva et Omniverse Audio2Face. Une présentation en vidéo étant plus parlante que des mots, voici une démonstration du résultat :

Le personnage ainsi présenté est entièrement généré par l'IA et se montre criant de réalisme, jusque dans la synchronisation labiale, qui passe de l'anglais au mandarin en temps réel. Pour ne rien gâcher, la vidéo est également magnifiée par le fameux ray tracing si cher à NVIDIA. Le résultat est bien sûr en deçà de l'impressionnant MetaHuman d'Epic, mais ne se montre pas moins prometteur, sachant qu'il s'agit du travail d'une IA.

Une technologie qui aidera à développer les jeux de demain

Comme dans de nombreux domaines, l'IA générative entend ainsi permettre de créer en un temps record des éléments en 2D et en 3D de haute qualité pouvant servir au développement de jeu, tout en limitant les coûts qu'engendrent normalement de telles productions. C'est en tout cas comme cela que NVIDIA vend la chose.

Selon l'article de blog consacré à l'annonce, cité en source ci-dessous, Omniverse Audio2Face est d'ailleurs d'ores et déjà utilisé par certains développeurs. GSC Game World, le studio ukrainien derrière S.T.A.L.K.E.R. 2, va notamment profiter de cette technologie pour son jeu très attendu, si tout va bien cette année.

NVIDIA a également annoncé qu'Omniverse servira, via la structure de Description Universelle de Scène (USD), à unifier le développement d'assets 3D. USD a, en effet, été adopté par Tencent Games (notamment pour le rendu des poils et cheveux), Unity ou encore l'Unreal Engine 5. Omniverse semble donc bien porter son nom et risque de devenir à bien des égards un pilier dans le développement des jeux vidéo, avec le secours de l'intelligence artificielle.

Source : NVIDIA

Robin Lamorlette

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons &...

Lire d'autres articles

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons & Dragons/Baldur's Gate 3.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (16)

crush56
Autant le visage est superbement modélisé, autant les animations faciales sont vraiment nazes, c’est ultra rigide, surtout après avoir vu la démo de metaHuman d’Unreal sur hellblade 2.<br />
Wicked_Larkin
Le but de cette démo était surtout de présenter la technologie Audio2Face à l’œuvre, se concentrant sur la synchronisation labiale multilingues en temps réel.<br /> Et aussi pour glisser un peu de ray tracing dans le mix, parce que NVIDIA ^^
iksarfighter
Les jeux étant de plus en plus cons, c’est clair qu’une IA pourra en pondre des masses.
Core-ias
En temps qu’ancien développer ayant touché à presque tout, j’ai qu’une seule chose à dire.<br /> Chapeau !
Core-ias
Les courts métrages pourrait très bien concurrencer le cinéma et les séries TV à se rythme.<br /> Dead Fantasy est une preuve qu’on peut faire sans, mais avec… → <br /> C’est niveau codec et multilingue que le challenge se cache question vidéo et précalculés.<br /> Donc comme PhysX, direction open source afin de rejoindre « badaboum ».
Pernel
Et une IA pour optimiser les jeux ? Non ? Bon tant pis, merci quand même.
Core-ias
Super Mario 64 PC Port - SM64RT - Ray Tracing Comparison - Part 1 - YouTube<br /> Un simple plugin dans un emulateur ferait autant ? <br /> Sous WinAmp il y avait même un plugin qui chargait plusieurs plugins.
Pernel
Juste des RT shadows j’ai l’impression, non ?
Core-ias
Oui, bien que j’ai dans l’idée que les « volumes » soit plus détaillées.<br /> Un peu comme on nous a « vendu » la tessellation.<br /> Sur un jeu comme celui ci avec une palette de couleurs tirant vers N et non R, donc game play tout public mais graphisme PEGI 3, il arrive même que certains objets ou effects soient mieux sans RT.
Pernel
Ouais la majorité des jeux RT le sont parce que ça fait bien sur le papier, mais généralement c’est soit beaucoup trop discret soit beaucoup trop mirroir et donc pas réaliste.
Core-ias
Pour ma part, le dit metaverse pourrait très bien se trouvé comme dans un animé tel sword art online. Le jeu, lui, c’est arrêté bien avant.<br /> Il y a déjà des d’outils pour la traduction en temps réel du son en texte ou son en son.<br /> La caméra… Retranscrire les réactions du visage de l’adversaire ou du partenaire.<br /> Entrer dans un univers où ont se comprendrait tous serait un peu plus vaste que le site de l’animé original.<br /> Les Jeux MMORPG pourrait bien y prendre un tournant.<br /> J’ai pas eu l’occasion de jouer en réseau et de voir des joueurs en cosplay dans command &amp; conquer alerte rouge 3, mais les acteurs du jeu se sont très bien amusez je pense.
Pernel
ok
Krimog
On peut comparer la modélisation, mais concernant les animations, on est sur deux choses totalement différentes : Metahumans se base sur du performance capture : on reproduit les animations faciales de l’acteur. La démo d’Nvidia montre une IA qui « devine » l’expression faciale en fonction simplement de l’audio.<br /> Donc c’est sûr que le rendu final n’est pas aussi bon, mais technologiquement parlant, il est assez impressionnant.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet