Les acteurs de la voix s’expriment sur les mods NSFW Skyrim générés par l’IA: « Cela devrait être considéré comme la violation qu’il est »

Les acteurs de la voix s'expriment sur les mods NSFW Skyrim générés par l'IA: "Cela devrait être considéré comme la violation qu'il est"

La scène de modding prédominante de Skyrim est connue dans l’industrie du jeu vidéo pour prolonger la durée de vie de l’un des plus grands jeux de Bethesda. Mais en ce moment, le paysage du modding est entouré de controverses en raison de la montée en puissance des clips vocaux générés par l’IA dans les mods basés sur de vrais acteurs vocaux de Skyrim. Si cela ne soulève pas déjà suffisamment de questions éthiques, certains des mods présentent des performances vocales d’IA pornographiques, provoquant des réactions négatives et un tollé dans la communauté des acteurs de la voix.

Ce problème a été signalé pour la première fois par JeuxRadar, qui a attiré l’attention sur Nexus Mods, un distributeur de mods qui héberge un certain nombre des mods Skyrim pornographiques en question. Lorsque IGN a contacté Nexus Mods pour commenter cette histoire, un porte-parole a simplement lié à la politique actuelle du site sur le contenu de l’IA, qui dit en partie: « Le contenu de mod généré par l’IA n’est pas contraire à nos règles, mais peut être supprimé si nous recevons une plainte crédible d’un créateur/titulaire de droits concerné. »

L’utilisateur de Twitter @Robbie92_ a souligné la pratique du clonage de voix par IA dans la scène du modding de Skyrim à la fin du mois dernier, marquant un certain nombre d’acteurs vocaux impactés. Robbie a déclaré que les performances vocales des acteurs étaient principalement introduites dans un outil de clonage d’IA appelé ElevenLabs, qui a généré les voix d’IA utilisées dans le contenu explicite.

« Je suis un membre de longue date et profondément concerné de la communauté des mods pour la série de jeux The Elder Scrolls », a écrit Robbie. « Je crois que la création et la distribution de pornographie deepfake sont un mal sans vergogne, et que nous, en tant que communauté, avons la responsabilité d’agir. »

Les réponses au Tweet original de Robbie sont remplies de certains des acteurs de la voix impactés réagissant en apprenant que leurs voix ont été utilisées pour du contenu pornographique d’IA sans leur consentement. De nombreux doubleurs ont été choqués alors qu’ils apprenaient ce problème pour la première fois, le doubleur Richard Epcar écrivant : « Qu’est-ce que c’est ?! »

Robbie a également partagé un Google Doc qui contient une liste de noms et de liens de divers mods qui utilisent le clonage de voix AI. Robbie a écrit que les liens ne sont accessibles qu’avec un compte Nexus Mods actif car ils sont étiquetés comme NSFW.

Cette liste – bien que non exhaustive – contient environ 100 liens vers des mods NSFW répertoriés sur Nexus Mods. Au moment d’écrire ces lignes, de nombreux mods ont déjà été cachés par les créateurs, avec le message : « Le mod a des problèmes d’autorisation (possibles) que l’auteur s’efforce de résoudre. » Cependant, de nombreux liens sont encore entièrement accessibles.

Les « problèmes d’autorisation possibles » deviennent évidents lorsque l’on creuse dans Conditions d’utilisation d’ElevenLabscar quiconque a utilisé le générateur de voix pour créer des mods NSFW Skyrim a violé une partie de l’accord d’utilisation.

« En téléchargeant des fichiers sur nos services, vous confirmez que vous êtes soit le propriétaire de ces fichiers, soit que vous disposez des droits et autorisations nécessaires pour utiliser ces fichiers. Vous ne pouvez télécharger des fichiers que si vous cochez une case le confirmant », site Web d’ElevenLabs lit en partie. « Par exemple, si vous téléchargez l’enregistrement vocal de quelqu’un sur nos services, vous confirmez que vous avez l’autorisation du propriétaire de la voix pour cloner et synthétiser sa voix. Vous seul êtes responsable de la sécurisation de ces droits et autorisations. »

IGN a contacté ElevenLabs pour un commentaire.

Comment les mods porno Deepfake de Skyrim impactent les acteurs de la voix

Lorsqu’un moddeur utilise des lignes générées par l’IA à partir d’un véritable acteur vocal, cela peut avoir un impact significatif sur la sécurité de carrière et la santé mentale de l’acteur. IGN a parlé à une paire d’acteurs de la voix qui ont travaillé sur The Elder Scrolls Online de la façon dont les deepfakes (en particulier ceux de nature explicite) affectent leurs collègues. Bien qu’aucun des acteurs de la voix à qui nous avons parlé n’ait été spécifiquement répertorié dans le document des acteurs de la voix concernés, ils détiennent tous deux des informations précieuses sur ce que cette situation signifie pour l’industrie.

Abbey Veffer a fait du doublage pour la récente extension Necrom d’ESO, et elle a été très franche sur les réseaux sociaux concernant la controverse sur le modding de Skyrim. Dans un e-mail à IGN, Veffer a partagé sa position sur les mods.

« Je pense que l’utilisation de la synthèse d’IA pour le clonage de voix non consensuel et les mods/deepfakes NSFW devrait être considérée comme la violation qu’elle est », a écrit Veffer. « À mon avis, cela devrait être traité comme similaire à la pornographie de vengeance. C’est un problème pondéré enraciné dans les auteurs jouant avec la dynamique du pouvoir et voulant un semblant de contrôle aux dépens de quelqu’un d’autre – à savoir, des acteurs dont ils peuvent prétendre être des fans. »

Veffer a exprimé sa frustration que les personnes qui fabriquent les mods ne le voient pas comme nuisible et ne comprennent pas les implications. Elle n’a pas tardé à souligner que les fans pourraient ne pas voir que la création de contenu comme celui-ci se fait aux dépens d’une personne réelle, et que les acteurs de la voix ne sont pas aussi riches ou intouchables que les fans peuvent le penser.

Je crois que l’utilisation de la synthèse d’IA pour le clonage de voix non consensuel et les mods/deepfakes NSFW devrait être considérée comme la violation qu’elle est

« En raison d’idées fausses courantes sur les salaires des acteurs, de nombreux observateurs sans instruction peuvent penser que nous sommes tous équipés d’avocats coûteux qui peuvent nous sauver en un rien de temps. Ils supposent également que ces imitations d’IA ne mettront pas en péril nos emplois – mais c’est entièrement faux. La plupart des acteurs de la voix ne sont pas riches et la stabilité de l’emploi n’existe pas vraiment dans cette industrie. Nous sommes tous dans le même bateau et nous méritons tous d’être protégés contre les abus de l’IA.

IGN s’est également entretenu avec Kyle McCarley, un autre doubleur d’ESO qui s’oppose à l’utilisation abusive des doubleurs dans les projets générés par l’IA. Dans une déclaration à IGN, McCarley a déclaré que « les implications de cette technologie non contrôlée sont franchement horribles », et il a poursuivi en expliquant le préjudice causé aux acteurs de la voix.

« Si les fans créent des mèmes où nos voix disent des choses que nous n’avons pas dites, cela peut absolument nuire à nos opportunités d’emploi si ces faux sont assez bons pour convaincre nos employeurs », a déclaré McCarley. « Nous ne possédons pas les droits sur les personnages que nous décrivons, nos employeurs le font. Beaucoup d’entre eux, tout à fait compréhensibles, ne veulent pas que nous ‘utilisions’ ces personnages pour dire des choses sans leur autorisation, pas plus que nous ne voulons que les gens utilisent nos voix pour dire ces choses… Notre image publique pourrait être ternie par un troll nous forçant à dire des choses odieuses, et ce genre de choses peut être presque impossible à récupérer, non seulement financièrement, mais aussi mentalement et émotionnellement.

Quant à ce qui peut être fait, McCarley et Veffer conviennent que la législation est la seule véritable voie à suivre pour protéger les acteurs contre les deepfakes d’IA, et que les acteurs indépendants ne pourront pas arrêter cela seuls à long terme.

McCarley a également souligné la poursuite Négociations SAG-AFTRA et studios hollywoodiensoù le syndicat du divertissement fait pression pour des protections contre les employeurs utilisant la technologie de l’IA sans autorisation et/ou paiement supplémentaire.

« C’est pourquoi nous avons désespérément besoin d’une législation au niveau fédéral, pour établir une surveillance des entreprises développant cette technologie et des règles sur la façon dont elle peut être utilisée à la fois par les entreprises privées en question et le grand public. Et ensuite, appliquer ces règles avec une forte des mesures punitives pour ceux qui les violent… Tout ce qu’un acteur individuel peut faire en ce moment, c’est essayer de contacter la personne qui utilise le modèle et lui demander poliment d’arrêter, ce qui va évidemment donner des résultats mitigés.

Logan Plant est rédacteur indépendant à l’IGN

Source-58