Nvidia vient de faire une démonstration du dernier ajout à NvidiaACE, l’interface de la société permettant aux développeurs de jeux de créer facilement des PNJ générés par l’IA. Avec l’ajout du moteur Inworld d’Inworld AI, les développeurs peuvent désormais ajouter rapidement et facilement des traits de personnalité et des histoires à leurs personnages, permettant à ces fonctionnalités d’informer sur la manière dont le personnage interagit avec le joueur.
Nvidia a déjà présenté une technologie similaire optimisée par Convai AI, dont elle a fait la démonstration au CES 2024. J’ai eu la chance d’interagir avec cette démo et j’ai été impressionné par la façon dont la démo pouvait entendre ma voix, interpréter mes réponses et faire interagir le personnage dans une manière naturelle de ressentir. Tout cela était alimenté localement en utilisant, bien sûr, les meilleurs choix de cartes graphiques de Nvidia.
Alors que la démo de Convai AI se concentrait sur les interactions généralement naturelles des personnages de l’IA entre eux et sur la base des invites du personnage du joueur, la nouvelle démo d’Inworld AI met l’accent sur la façon dont les personnages peuvent recevoir des caractéristiques qui informent leur personnalité. Vous pouvez définir l’humeur, les connaissances, les objectifs, les relations et bien plus encore du personnage, le tout présenté en langage naturel. Par exemple, le personnage de démonstration de Tae est décrit en partie par les phrases suivantes :
« {personnage} est né et a grandi à Highlandtown, Baltimore – un quartier avec une communauté d’immigrants coréens historiquement importante.
Les grands-parents de {personnage} faisaient partie de la vague de Coréens qui se sont installés à Highlandtown, dans la région de Baltimore, dans les années 1970 et 1980, attirés par les opportunités et le désir de construire une vie meilleure.
…
Même si ni Alex ni Jin-Soo (les amis du personnage) n’ont choisi de poursuivre des études postsecondaires, {personnage} a surpris sa famille en s’inscrivant au programme d’accueil d’un collège communautaire voisin de Baltimore.
Là où Nvidia ACE entre dans l’équation, c’est qu’il fournit déjà la technologie de reconnaissance vocale, de synthèse vocale et de mouvement voix-visage pour serrer et faciliter les interactions entre les personnages.
Malheureusement, la démo ne montre aucun exemple de démonstration d’interactions avec Tae, ni généralement aucun exemple de la façon dont toutes ces informations sont utilisées pour informer les réponses des PNJ. Il n’y a qu’un seul personnage donnant trois réponses différentes à un scénario présenté, mais le contexte de l’interaction n’est pas donné.
Néanmoins, cela montre certainement qu’il devrait au moins y avoir quelques points positifs dans la marche de l’IA pour les joueurs, avec des interactions plus naturelles avec les PNJ.