« Nous devons être vigilants »: les acteurs de la voix, SAG-AFTRA Hit Comic-Con pour parler des protections contre l’IA

"Nous devons être vigilants": les acteurs de la voix, SAG-AFTRA Hit Comic-Con pour parler des protections contre l'IA

Le San Diego Comic-Con de cette année se déroule toujours au milieu des grèves en cours des scénaristes et des acteurs, et plusieurs acteurs de la voix et certains des principaux dirigeants de la guilde des acteurs, la Screen Actors Guild – Fédération américaine des artistes de la télévision et de la radio (SAG-AFTRA), ont profité de l’occasion pour parler de l’une des plus grandes préoccupations de l’industrie en ce moment : l’IA.

C’est une préoccupation qui est devenue plus publique après que le directeur exécutif national et négociateur en chef du SAG-AFTRA, Duncan Crabtree-Ireland a révélé la proposition choquante des studios hollywoodiens concernant l’IA: que les studios devraient pouvoir payer un acteur de fond pour une journée de travail, scanner sa ressemblance et l’utiliser sans consentement ni compensation supplémentaire pour toujours. Si cela semble sortir tout droit d’un épisode de Black Mirror, eh bien, c’est en quelque sorte est le sujet de la première de la saison 6 Joan Is Awful, et la similitude n’a pas été perdue pour les participants d’un panel Comic-Con qui a eu lieu aujourd’hui.

« Je voudrais personnellement remercier Netflix de nous avoir fait une vidéo promotionnelle pour exactement ce contre quoi nous nous battons », a plaisanté l’un des participants, Ashly Burch de Mythic Quest et Horizon Zero Dawn.

Le panel, intitulé AI in Entertainment: The Performers’ Perspective, comprenait également Cissy Jones (The Owl House, Transformers Earthrise), Zeke Alton (The Calisto Protocol, membre négociateur SAG/AFTRA), Tim Friedlander (Record of Ragnarok, Ace Combat 7, président/fondateur de la National Association of Voice Actors) et Crabtree-Ireland lui-même. Et même s’il ne s’agissait pas d’une facturation dans le Hall H, le panel lui-même, qui se déroulait dans l’une des plus petites salles de réunion, était complètement rempli, ce qui montre à quel point il est à l’esprit même lors de la convention des fans. Crabtree-Ireland, en fait, a même clarifié ce les cosplayeurs peuvent faire pour montrer leur soutien pour les grèves lors d’une conférence de presse hier.

Et pour en revenir à Joan Is Awful, Crabtree-Ireland y a fait référence en parlant de l’une des choses pour lesquelles ils se battent en matière d’IA : l’idée du « consentement éclairé ». Après tout, le problème dans l’épisode de Black Mirror était que les personnages d’Annie Murphy et de Salma Hayek avaient cédé par inadvertance les droits sur leurs ressemblances en raison de stipulations enfouies dans des contrats et des conditions générales.

« Vous ne pouvez pas enterrer des trucs dans un contrat de 300 pages et ensuite l’utiliser pour affecter la vie de quelqu’un.

« C’est l’un des problèmes sur lesquels nous nous battons dans nos propositions d’IA, c’est la question du consentement réel », a-t-il déclaré. « Pas un faux consentement, là où il est enterré dans un contrat. Consentement réel. Et si ce n’est pas le cas, alors ce n’est pas juste et ce n’est pas acceptable… vous ne pouvez pas enterrer des trucs dans un contrat de 300 pages et ensuite l’utiliser pour affecter la vie de quelqu’un. Ce n’est pas bien.

Alton a décomposé les trois choses pour lesquelles ils se battent en matière de protection : les lois mondiales (il a spécifiquement souligné la loi sur la divulgation de l’IA de 2023, HR3831), les dispositions des contrats négociés collectivement et la « technologie transparente » : « Nous devons avoir une technologie transparente afin que nous puissions voir ce qui se passe dans la machine parce qu’ils en font de l’argent », a-t-il ajouté.

Et si l’IA est une préoccupation pour tous les acteurs, il est particulièrement important, ont expliqué les participants, que les acteurs de la voix adoptent dès maintenant une position active. Interrogé par le modérateur Linsay Rousseau (Transformers: War for Cybertron, God of War Ragnarok) si l’IA pouvait détruire l’industrie du divertissement, Crabtree-Ireland a déclaré: «Cela pourrait certainement; la question est, allons-nous laisser cela se produire?

« La vérité est que l’une des raisons pour lesquelles il est si important que ce panel se produise est que le doublage est en quelque sorte à la pointe de la lance en termes de la façon dont l’IA peut en fait être utilisée pour élever les gens et améliorer les opportunités que les acteurs et les autres ont, ou être utilisé de manière négative, pour voler leur voix, pour écraser la créativité humaine », a-t-il déclaré. « Et nous devons être très vigilants à ce sujet. »

Parlant de la façon dont cela affecte les acteurs de la voix en particulier, Friedlander a souligné comment certains membres de la communauté des mods ont utilisé des versions synthétiques de leurs performances réelles. C’est un problème dont il a parlé à IGN un peu plus tôt ce mois-ci après les acteurs de la voix ont découvert qu’il y avait des mods Skyrim générés par l’IA qui utilisaient des versions synthétiques de leurs performances dans des situations NSFW.

« Cela devient dangereux pour eux, cela devient préjudiciable à leurs familles.

« Les communautés de mods et les fans font tous partie du groupe que nous aimons et avec qui nous travaillons également pour aider à partager et à développer ces jeux que nous aimons », a-t-il déclaré. «Mais quand vous commencez à en arriver au point de prendre ces voix, de prendre ces voix reconnaissables, de les mettre dans une IA pour leur faire dire quelque chose qu’ils n’ont jamais, jamais dit et que cela passe ensuite au contenu pornographique, cela devient une grande ligne que beaucoup d’acteurs vocaux ne sont pas contents d’avoir franchie. Cela devient dangereux pour eux, cela devient préjudiciable à leurs familles.

Et dans l’état actuel des choses, il n’y a pas trop de protections dont disposent les acteurs vocaux en matière d’IA, comme l’a expliqué Burch.

« Il y a une disposition – si vous êtes un doubleur, c’est dans votre contrat en ce moment – qu’ils possèdent votre voix à travers l’univers pour la fin des temps à perpétuité, sur tous les supports », a-t-elle déclaré.

« Dans toute technologie existante ou à développer », a ajouté Jones.

« Cela signifie donc qu’ils prévoient l’instance dans laquelle ils construisent un studio sur Mars et qu’ils veulent utiliser votre voix en 3020 », a poursuivi Burch. « Comme, c’est ce qui est dans le contrat en ce moment. »

Jones, quant à lui, a reconnu qu’il n’y avait « pas de quoi remettre ce génie dans la bouteille » et que nous « devons être réalistes et trouver un moyen de travailler avec ce qui est disponible ». Elle a poursuivi en disant qu’elle travaillait avec NAVA pour « créer un cadre pour l’IA de manière éthique, afin que quiconque utilise notre voix, nous ayons donné son consentement actif, nous ayons le contrôle sur ce que nos voix sont utilisées et nous avons une compensation.  »

Elle a dit qu’ils continuaient à travailler sur la mise en œuvre de l’IA « acteur d’abord » et qu’en attendant, il y a une renonciation gratuite sur le Site Internet NAVA que tout acteur vocal peut utiliser et qui répond à certaines de leurs principales préoccupations.

« C’est la première fois que j’ai de l’espoir pour la voix off depuis très longtemps », a-t-elle ajouté.

Dans l’ensemble, les panélistes ont convenu qu’il appartenait aux gens de repousser les entreprises et de garder le contrôle et le consentement sur leur propre identité.

« Nous pouvons tous résister à l’utilisation abusive de la technologie pour vraiment dire, ‘nous allons dire ce qui peut être fait avec nos corps, nos voix, nos visages, nos ressemblances' », a déclaré Crabtree-Ireland. « Et nous devons le faire. »

Crédit miniature : Matt Winkelmeyer/Getty Images

Alex Stedman est rédacteur en chef senior chez IGN, supervisant les reportages sur le divertissement. Lorsqu’elle n’écrit pas ou n’édite pas, vous pouvez la trouver en train de lire des romans fantastiques ou de jouer à Donjons et Dragons.

Source-58