Mise Ă jour: Le prĂ©sident de Hi-Rez, Stewart Chisam, a partagĂ© une Version mise Ă jour de l’avenant AI dĂ©crit dans le rapport ci-dessous. La clause controversĂ©e qui stipulait auparavant que le studio pouvait utiliser l’IA pour reproduire les voix d’acteurs dĂ©cĂ©dĂ©s semble avoir Ă©tĂ© supprimĂ©e dans son intĂ©gralitĂ©, mais la protection contre le clonage de l’IA ou les « doubles numĂ©riques » demeure.
Histoire originale…
Le dĂ©veloppeur de Smite et Paladins, Hi-Rez Studios, a rĂ©agi Ă la rĂ©action contre l’utilisation prĂ©sumĂ©e de l’IA pour reproduire les voix des acteurs, arguant qu’il ne le fera que dans certaines circonstances lorsqu’un acteur dĂ©cĂšde ou est frappĂ© d’incapacitĂ© alors qu’il est sous contrat, et s’engage maintenant Ă modifier son contrat en consĂ©quence.
Le doubleur Henry Schrader, qui a des crĂ©dits sur Genshin Impact, Blue Lock et One Piece, a dĂ©clarĂ© jeudi dans un tweet que Hi-Rez « utilisera l’IA pour cloner des voix » et a ajoutĂ© qu’il avait « refusĂ© d’ajouter des mots Ă des contrats qui en protĂ©geraient les acteurs. »
Schrader a poursuivi en disant que plusieurs acteurs avec lesquels il avait Ă©tĂ© en contact ont Ă©tĂ© informĂ©s qu’ils ne pouvaient pas voir le contrat dĂ©crivant ces conditions Ă moins qu’ils ne signent un accord de non-divulgation, les empĂȘchant ainsi d’avertir les autres de travailler avec le dĂ©veloppeur.
PrĂ©sident Hi-Rez Stewart Chisam a rĂ©pondu en disant que Shrader Ă©tait « plein de đ©Â » et en partageant une clause partielle protĂ©geant apparemment les acteurs vocaux de la rĂ©plication vocale de l’IA. Cependant, d’autres acteurs de la voix se sont joints Ă la conversation avec leurs propres expĂ©riences avec les contrats Hi-Rez. Marin M. Millerle doubleur derriĂšre Nimbus de l’extension Lightfall de Destiny 2, a remis en question les contrats qu’ils auraient vus et qui permettraient Ă Hi-Rez de « simuler la voix des talents aprĂšs leur mort ».
OĂč sont vos sources car en tant que gars qui a approuvĂ© un AI Rider pour le talent vocal qui comprend ce qui suit, je pense que vous ĂȘtes plein de đ© pic.twitter.com/kwEwAejWxS17 aoĂ»t 2023
Suite Ă un retour de flamme croissant, Chisam a partagĂ© ce qu’il prĂ©tend ĂȘtre le cavalier complet sur les dĂ©tails du contrat liĂ© Ă l’IA, ce qui semble en effet confirmer que Hi-Rez a stipulĂ© aux acteurs qu’il peut utiliser l’IA pour simuler leur voix aprĂšs leur mort ou leur incapacitĂ©. Voici la clause complĂšte en question :
« Le client s’engage Ă ne pas utiliser, ni sous-licencier, la performance pour simuler la voix ou l’image du talent afin de crĂ©er une voix ou une image synthĂ©tisĂ©e ou « double numĂ©rique » du talent. Nonobstant ce qui prĂ©cĂšde, en cas de dĂ©cĂšs ou d’incapacitĂ© du talent qui laisse le talent incapable de exĂ©cuter Ă tout moment prĂ©visible, le Client sera autorisĂ© Ă utiliser la Performance ou l’enregistrement (s) ou d’autres reprĂ©sentations numĂ©riques des Performances du Talent pour produire de nouveaux sons, images et / ou vidĂ©o de la voix et / ou de la ressemblance du Talent ( une ‘Performance synthĂ©tique’). »
Essentiellement, la clause semble confirmer que ce dont Hi-Rez est accusĂ© est vrai, dans une certaine mesure. Dans une dĂ©claration Ă GamesRadar +, Chisam a dĂ©clarĂ© que « la clause autour de la mort n’Ă©tait pas si importante pour nous et si Ă©troite dans notre cas d’utilisation que nous ne l’utiliserions probablement jamais », ajoutant: « Je pense que les avocats voulaient quelque chose qui couvrirait beaucoup d’Ă©ventualitĂ©s (c’est leur travail de rĂ©flĂ©chir) et la façon dont c’est formulĂ© semblait raisonnable. »
Chisam nous dit qu’il a depuis « demandĂ© aux avocats de retirer cette partie », se rĂ©fĂ©rant Ă la section sur le clonage par IA des voix des acteurs morts. Il est important de noter que cette clause inclut Ă©galement la protection contre les clones d’IA « double numĂ©rique », de sorte que la formulation finale du contrat modifiĂ© sera importante. Cela dit, nous avons demandĂ© Ă Chisam si Hi-Rez serait disposĂ© Ă travailler avec des acteurs de la voix qui souhaitent refuser que leur voix soit utilisĂ©e pour l’IA de cette maniĂšre, ce Ă quoi il a rĂ©pondu : « Ouais ».
« Je ne veux pas avoir beaucoup de versions diffĂ©rentes du Rider, car cela devient difficile de savoir qui a quoi », a-t-il expliquĂ©. « J’ai donc demandĂ© aux avocats de supprimer cette partie. Quand on m’a demandĂ© de l’examiner, cela semblait raisonnable et je l’ai approuvĂ©, mais ce n’est pas vraiment une clause dont je me fous. »
L’utilisation de l’IA pour reproduire les ressemblances des acteurs est l’un des problĂšmes au cĆur de la grĂšve en cours de la WGA, avec le potentiel d’avoir un impact sur les calendriers de sortie d’une liste massive de films et d’Ă©missions de tĂ©lĂ©vision Ă venir, et c’est une prĂ©occupation croissante dans le jeu vidĂ©o. l’industrie Ă©galement, avec des acteurs tels que Jennifer Hale et David Hayter avoir dĂ©clarĂ© publiquement s’opposer Ă cette pratique.
Nous avons demandé des éclaircissements sur la suppression du libellé du contrat et mettrons à jour cet article si nous recevons une réponse.