Aujourd’hui, un groupe de sénateurs a présenté le projet de loi qui rendrait illégale la création de recréations numériques de la voix ou de l’image d’une personne sans le consentement de cette personne. Il s’agit d’un effort bipartisan des sénateurs Chris Coons (D-Del.), Marsha Blackburn (R-Tenn.), Amy Klobuchar (D-Minn.) et Thom Tillis (RN.C.), intitulé Nurture Originals, Foster Art, and Keep Entertainment Safe Act of 2024.
Si elle est adoptée, la loi NO FAKES Act permettrait aux personnes de demander des dommages et intérêts lorsque leur voix, leur visage ou leur corps sont recréés par l’IA. Les particuliers comme les entreprises seraient tenus responsables de la production, de l’hébergement ou du partage de répliques numériques non autorisées, y compris celles réalisées par l’IA générative.
Nous avons déjà vu de nombreux exemples de célébrités trouvant leurs imitations dans le monde. utilisé pour arnaquer les gens avec un faux cadeau d’ustensiles de cuisine Le Creuset. Une voix qui sonnait est apparue dans une démonstration vocale de ChatGPT. L’IA peut également être utilisée pour faire croire que des candidats politiques font de fausses déclarations, avec l’exemple le plus récent. Et ce ne sont pas seulement les célébrités qui peuvent être .
« Tout le monde mérite le droit de posséder et de protéger sa voix et son image, peu importe que vous soyez Taylor Swift ou n’importe qui d’autre », a déclaré le sénateur Coons. « L’IA générative peut être utilisée comme un outil pour favoriser la créativité, mais cela ne peut pas se faire au détriment de l’exploitation non autorisée de la voix ou de l’image de quiconque. »
La rapidité avec laquelle les nouvelles lois sont adoptées est notoirement inférieure à celle du développement des nouvelles technologies. Il est donc encourageant de voir les législateurs prendre au sérieux la réglementation de l’IA. Le projet de loi proposé aujourd’hui fait suite à l’adoption récente par le Sénat de la loi DEFIANCE, qui permettrait aux victimes de deepfakes sexuels de poursuivre en justice pour obtenir des dommages et intérêts.
Plusieurs organisations de divertissement ont apporté leur soutien au NO FAKES Act, notamment la SAG-AFTRA, la RIAA, la Motion Picture Association et la Recording Academy. Bon nombre de ces groupes ont mené leurs propres actions pour obtenir une protection contre les recréations d’IA non autorisées. La SAG-AFTRA a récemment tenté d’obtenir un accord syndical pour les ressemblances dans les jeux vidéo.
OpenAI figure également parmi les partisans de la loi. « OpenAI est ravie de soutenir la loi NO FAKES, qui protégerait les créateurs et les artistes contre les copies numériques non autorisées de leurs voix et de leurs images », a déclaré Anna Makanju, vice-présidente des affaires mondiales d’OpenAI. « Les créateurs et les artistes doivent être protégés contre toute usurpation d’identité, et une législation réfléchie au niveau fédéral peut faire la différence. »