Microsoft utilise l’IA pour assurer la sécurité de la communauté dans les chats vocaux, mais il reste encore un long chemin à parcourir

Microsoft utilise l'IA pour assurer la sécurité de la communauté dans les chats vocaux, mais il reste encore un long chemin à parcourir

Microsoft utilise l’IA pour aider à identifier les contenus nuisibles et garantir la sécurité de la communauté des joueurs lorsqu’elle joue à des jeux en ligne.

Dans un article de blog pour son rapport sur la transparence Xbox, la société a réitéré ses « progrès dans la promotion de la sécurité des joueurs » et son « engagement en faveur de la transparence », ainsi que son « approche progressive pour tirer parti de l’IA ».

L’IA est utilisée de deux manières spécifiques : l’étiquetage automatique et la correspondance de modèles d’image.

Newscast : La fermeture des studios Hi-Fi Rush et Redfall est-elle un signe d’échec du modèle de publication Xbox Game Pass ?Regarder sur YouTube

Le premier utilise l’IA pour identifier les mots ou expressions nuisibles dans les rapports des joueurs, permettant ainsi aux modérateurs de la communauté de trier rapidement les faux rapports et de se concentrer sur les cas les plus critiques.

Ce dernier utilise également des techniques de correspondance d’images pour identifier et supprimer rapidement les images nuisibles et toxiques.

L’utilisation de l’IA ici fait suite à l’introduction l’année dernière d’une nouvelle fonctionnalité de rapport vocal, qui permet aux joueurs Xbox de capturer des clips vidéo de chat vocal dans le jeu et de les soumettre à l’équipe de sécurité Xbox pour examen.

Xbox affirme avoir capturé 138 000 enregistrements vocaux depuis le lancement de la fonctionnalité. Lorsque ces rapports ont abouti à une grève, 98 pour cent des joueurs ont montré un comportement amélioré et n’ont pas reçu de nouvelles sanctions.

L’année dernière, Xbox a introduit un système de frappe d’application, associant un mauvais comportement à une grève de gravité appropriée. Depuis le lancement, 88 % des joueurs ayant reçu un avertissement n’ont pas reçu d’application supplémentaire.

Il s’agit donc d’une étape positive puisque l’IA réduit le coût humain de l’examen des contenus toxiques.

Pourtant, la toxicité et la misogynie restent répandues dans le chat vocal des jeux. Un message de la streameuse Twitch Taylor Morgan est devenu viral cette semaine en raison des abus préjudiciables qu’elle a subis alors qu’elle jouait à un match de Riot’s Valorant (méfiez-vous du langage utilisé dans le clip ci-dessous).

« Les suspensions ne suffisent pas. Rien n’empêchera jamais ces hommes d’agir de cette façon jusqu’à ce que les interdictions matérielles entrent en vigueur. Ils ne devraient plus jamais pouvoir jouer à ce jeu », a-t-elle posté sur X, anciennement Twitter.

Dans un message de suivi, elle a révélé qu’elle avait reçu une pénalité pour avoir quitté le jeu plus tôt.

Des exemples comme celui-ci montrent qu’il reste encore beaucoup de chemin à parcourir pour améliorer la sécurité des jeux en ligne. Et bien que l’utilisation de l’IA par Microsoft soit apparemment positive, il convient de rappeler que l’entreprise a licencié l’année dernière toute son équipe d’éthique et de société en matière d’IA dans le cadre de 10 000 suppressions d’emplois dans l’entreprise (comme le soulignait à l’époque The Verge). Il reste cependant son Office of Responsible AI, qui a publié son guide Responsible AI Standard.

En effet, Microsoft met certainement en avant les avantages de l’IA. En novembre de l’année dernière, la société a annoncé un « partenariat de co-développement pluriannuel » avec Inworld AI pour fournir aux studios Xbox des outils d’IA tels qu’un copilote de conception et un moteur d’exécution de personnages.

De tels outils d’IA générative ont, auparavant, suscité « révérence et rage », comme l’a rapporté Eurogamer lors de l’événement GDC de l’année dernière.

Plus récemment, un rapport d’Unity affirmait que 62 % des studios utilisaient déjà l’IA, l’animation étant la principale utilisation.

Source-101