La présentation de State of Unreal 2023 d’hier a été plutôt éclipsée par une certaine annonce de jeu surprise (s’ouvre dans un nouvel onglet), mais Epic a montré une technologie vraiment incroyable à venir sur Unreal Engine 5 dans un avenir proche. Nous avons pu voir de nouveaux outils d’environnement procéduraux impressionnants (s’ouvre dans un nouvel onglet)Lords of the Fallen montrant les améliorations du moteur pour la création de personnages et des armures et vêtements réalistes (s’ouvre dans un nouvel onglet), et plus. Mais ce qui m’a vraiment époustouflé, c’est la démo de scène de MetaHuman Animator.
Nous avons vu MetaHuman (s’ouvre dans un nouvel onglet) avant – c’est un outil qui permet aux développeurs de générer des visages humains très réalistes, entièrement truqués pour l’animation. Cependant, animer ces visages d’une manière qui corresponde à leur aspect réaliste – en évitant la vallée étrange – a été un processus difficile et long jusqu’à présent. La capture de mouvement, c’est-à-dire demander aux acteurs d’effectuer les mouvements, puis transformer cette séquence en animation, a produit les meilleurs résultats, mais nécessite un équipement spécialisé et des mois de travail d’expert.
Eh bien, jusqu’à maintenant. Sur scène, Epic a présenté une nouvelle fonctionnalité appelée MetaHuman Animator, conçue pour rationaliser complètement le processus. Pendant la démo de scène (s’ouvre dans un nouvel onglet)vous pouvez voir l’acteur et développeur Melina Juergens—star des jeux Hellblade—enregistrer une vidéo de son visage sur un iPhone, avant qu’un technicien ne la télécharge, la traite et la transforme automatiquement en une séquence animée complète en l’espace de littéralement trois minutes.
La vidéo finale n’est pas complètement terminée – un animateur entrerait idéalement et en retoucherait des éléments, et évidemment l’intégrerait à la scène du jeu – mais elle semble à 90% du chemin, et c’est étonnant. Vous n’avez même pas besoin de le mapper sur un MetaHuman modelé sur le visage de cette personne – vous pouvez l’utiliser avec tous les visages que vous avez prêts, qu’ils soient photoréalistes ou stylisés et caricaturaux.
Le potentiel ici est énorme. Non seulement les grands studios pourront créer des animations faciales en une fraction du temps, permettant des interactions de plus en plus réalistes dans les jeux à venir, mais les petits développeurs pourront créer des scènes de qualité mocap avec juste un téléphone et un PC, au lieu d’un studio entier plein de caméras 4D et de ces petites choses à points blancs.
Ensuite, juste pour montrer, Epic a révélé des images du développement de Hellblade 2 utilisant la technologie avec l’équipement mocap de Ninja Theory, une vidéo qui, selon elle, « n’a été ni peaufinée ni modifiée de quelque manière que ce soit » au-delà du traitement automatique du programme. C’est un bref aperçu, mais je pense que c’est probablement l’animation de jeu vidéo la plus photoréaliste que j’aie jamais vue.
Si les développeurs sont aussi excités que moi à ce sujet, préparez-vous pour toute une génération de jeux qui concernent principalement des personnages livrant des monologues shakespeariens en très gros plan. En 2030, vous serez intimement familiarisé avec chaque ride et chaque pore du visage de Doom Guy.