lundi, décembre 23, 2024

Les développeurs de jeux se tournent vers l’IA pour lutter contre les secousses méchantes dans le chat vocal

Unity Technologies a annoncé un nouvel outil pour sa suite de développeurs qui utilise l’IA pour aider les développeurs à identifier la toxicité dans les jeux en ligne. Le nouvel outil Safe Voice est lancé en version bêta fermée et vise à permettre aux studios d’isoler et d’examiner rapidement les rapports de toxicité. Unity indique que la société Rogue de Hi-Rez a participé aux premiers tests de la fonctionnalité et continue d’utiliser l’outil maintenant qu’il entre dans sa période bêta.

On dit que Safe Voice analyse des aspects tels que le ton, le volume, l’intonation, l’émotion, la hauteur et le contexte pour identifier les interactions toxiques. Il s’active lorsqu’un joueur signale un problème avec un comportement, puis commence à surveiller et fournit un rapport aux modérateurs humains. Ce tableau de bord de vue d’ensemble permettra aux modérateurs d’examiner les incidents individuels ainsi que de voir les tendances au fil du temps pour aider ses plans de modération. Unity indique également qu’il s’agit de la première d’une suite plus large de solutions de toxicité à venir.

« C’est l’une des principales raisons pour lesquelles les gens quittent un jeu et arrêtent de jouer parce qu’il y a une sorte de mauvaise situation autour de la toxicité et d’autres éléments d’abus », a déclaré Mark Whitten, président de Unity chez Create Solutions, à GameSpot.

Hi-Rez Studios a annoncé un partenariat Unity pour un nouveau système d’enregistrement de chat vocal en février, lorsqu’il a publié la mise à jour qui a commencé à tester le nouvel outil. Dans l’annonce de Safe Voice, le producteur principal de Rogue Company a déclaré que l’outil avait été utile pour identifier et atténuer les problèmes avant qu’ils ne s’aggravent.

Au début de la phase de test, Unity testait pour s’assurer qu’il signalait avec précision les problèmes et réduisait le temps nécessaire à l’implication des humains. À cette fin, a déclaré Whitten, cela a été très réussi. Les développeurs de jeux qui recevaient généralement des dizaines de milliers de rapports au cours d’une période donnée ont pu réduire rapidement ces rapports et hiérarchiser ceux qui étaient les plus susceptibles de poser problème. Et bien que l’automatisation ait été un sujet brûlant dans le domaine de la technologie ces derniers temps, Whitten dit que cet outil est destiné à aider à soulager les équipes de modération humaine.

« Je pense qu’il s’agit d’un gain d’efficacité et non d’un scénario de remplacement », a déclaré Whitten. « Cela dit – et j’ai couru Xbox Live pendant de nombreuses années – chaque jour où je pourrais remplacer un humain qui doit faire face à des choses inappropriées, je le ferais avec plaisir. Ce n’est pas un travail amusant, ce n’est pas un travail que vous avez vraiment veulent que les gens fassent, les plaçant au milieu d’un tas de mauvais comportements toute la journée. Vous feriez bien mieux d’avoir des écrans qui captent une partie de cela, puis de leur permettre de prendre des mesures en fonction des écrans au lieu d’avoir à être l’écran lui-même. »

Une fois que ce processus de sélection a fourni des données aux modérateurs, les développeurs décident des mesures à prendre. Comme pour toute modération de jeu, il appartient à chaque studio de définir ses politiques et de s’assurer que les sanctions sont cohérentes. Enfin, pour protéger la confidentialité des utilisateurs, les joueurs devront opter pour l’enregistrement vocal séparément de tout autre accord de jeu en ligne.

« Les données sont anonymisées dans les bases de données Unity », a déclaré Whitten. « Il est connecté à l’identité du joueur dans le jeu afin qu’il puisse prendre des mesures de modération si nécessaire, puis il est supprimé des services. »

Les éditeurs de jeux ont cherché à lutter contre la toxicité en ligne de diverses manières. Ubisoft a donné aux joueurs un moyen de contacter la police locale et a annoncé l’année dernière qu’il s’associait à Riot pour rechercher un projet anti-toxicité de l’IA. Plus récemment, Microsoft a annoncé qu’il permettrait aux utilisateurs de Xbox Live de partager des clips vocaux avec des modérateurs.

Les produits discutés ici ont été choisis indépendamment par nos éditeurs. GameSpot peut obtenir une part des revenus si vous achetez quelque chose présenté sur notre site.

Source-105

- Advertisement -

Latest