Les artistes peuvent « empoisonner » les modèles d’IA avant que le Copyright Office puisse émettre des directives

Agrandir / Une image OpenAI créée à l’aide de DALL-E 3.

Les artistes ont passé l’année dernière à lutter contre les entreprises qui formaient des générateurs d’images IA – y compris des outils populaires comme l’impressionnant photoréaliste Midjourney ou l’ultra-sophistiqué DALL-E 3 – sur leurs œuvres originales, sans consentement ni compensation. Aujourd’hui, les États-Unis ont promis de prendre enfin au sérieux leurs préoccupations en matière de droits d’auteur soulevées par l’IA, a déclaré le président Joe Biden dans son très attendu décret sur l’IA, signé cette semaine.

Le Bureau américain du droit d’auteur avait déjà sollicité l’avis du public sur les préoccupations liées à l’IA au cours des derniers mois, au cours d’une période de commentaires se terminant le 15 novembre. Le décret de Biden a précisé qu’après cette période de commentaires, le Bureau du droit d’auteur publierait les résultats de son étude. Et puis, dans les 180 jours suivant cette publication – ou dans les 270 jours suivant l’ordre de Biden, « selon la date la plus tardive » – le directeur du Copyright Office consultera Biden pour « émettre des recommandations au président sur d’éventuelles mesures exécutives liées au droit d’auteur et à l’IA ».

« Les recommandations porteront sur tous les droits d’auteur et questions connexes abordés dans l’étude du Bureau américain du droit d’auteur, y compris l’étendue de la protection des œuvres produites à l’aide de l’IA et le traitement des œuvres protégées par le droit d’auteur dans la formation à l’IA », indique l’ordonnance de Biden.

Cela signifie que potentiellement dans les six à neuf prochains mois (ou plus), les artistes pourraient avoir des réponses à certaines de leurs plus grandes questions juridiques, notamment une meilleure compréhension de la manière de protéger leurs œuvres contre l’utilisation pour former des modèles d’IA.

Actuellement, les artistes ne disposent pas de beaucoup d’options pour empêcher les créateurs d’images IA, qui génèrent des images basées sur les invites textuelles de l’utilisateur, de référencer leurs œuvres. Même des entreprises comme OpenAI, qui ont récemment commencé à permettre aux artistes de refuser que leurs œuvres soient incluses dans les données de formation de l’IA, autorisent uniquement les artistes à se désinscrire des futures données de formation. Les artistes ne peuvent pas refuser les données de formation qui alimentent les outils existants car, comme le dit OpenAI :

Une fois que les modèles d’IA ont appris de leurs données d’entraînement, ils n’ont plus accès aux données. Les modèles ne conservent que les concepts qu’ils ont appris. Lorsqu’une personne fait une demande à un modèle, le modèle génère une sortie basée sur sa compréhension des concepts inclus dans la demande. Il ne recherche ni ne copie le contenu d’une base de données existante.

Selon The Atlantic, ce processus de non-participation – qui oblige les artistes à soumettre des demandes pour chaque œuvre d’art et pourrait être trop lourd à remplir pour de nombreux artistes – laisse les artistes coincés avec la seule option de protéger les nouvelles œuvres qu’ils « créent à partir de maintenant ». « . Il semble qu’il soit trop tard pour protéger les œuvres « déjà réclamées par les machines » en 2023, prévient The Atlantic. Et ce problème touche évidemment beaucoup de monde. Un porte-parole a déclaré à The Atlantic que Stability AI à lui seul a répondu à « plus de 160 millions de demandes de désinscription lors des formations à venir ».

Jusqu’à ce que les régulateurs fédéraux déterminent quels droits les artistes devraient conserver à mesure que les technologies d’IA progressent rapidement, au moins une artiste – la caricaturiste et illustratrice Sarah Andersen – dépose une plainte directe pour violation du droit d’auteur contre Stability AI, fabricant de Stable Diffusion, un autre remarquable outil de synthèse d’images d’IA. .

Andersen, dont le recours collectif proposé pourrait avoir un impact sur tous les artistes, a environ un mois pour modifier sa plainte afin de « plaider de manière plausible que les produits d’IA des défendeurs permettent aux utilisateurs de créer de nouvelles œuvres en faisant expressément référence aux œuvres d’Andersen par leur nom », si elle veut « les déductions ». dans sa plainte « sur comment et quelle quantité de contenu protégé d’Andersen reste en diffusion stable ou est utilisé par les produits finaux de l’IA » pour « être plus fort », a recommandé un juge.

En d’autres termes, en vertu des lois actuelles sur le droit d’auteur, Andersen aura probablement du mal à gagner sa bataille juridique si elle ne parvient pas à montrer au tribunal quelles images spécifiques protégées par le droit d’auteur ont été utilisées pour entraîner des modèles d’IA et à démontrer que ces modèles ont utilisé ces images spécifiques pour cracher des œuvres d’art qui semblent exactement comme la sienne. Citer des exemples spécifiques sera important, a déclaré un expert juridique à TechCrunch, car affirmer que les outils d’IA imitent les styles ne fonctionnera probablement pas, car « le style s’est avéré presque impossible à protéger par le droit d’auteur ».

Les avocats d’Andersen ont déclaré à Ars que son cas était « complexe », mais ils restent convaincus qu’elle peut gagner, peut-être parce que, comme l’ont dit d’autres experts à The Atlantic, elle pourrait être en mesure de démontrer que « les programmes d’IA générative peuvent conserver une quantité surprenante d’informations ». à propos d’une image dans leurs données d’entraînement, parfois suffisante pour la reproduire presque parfaitement. Mais elle pourrait échouer si le tribunal décide que l’utilisation de données pour former des modèles d’IA constitue une utilisation équitable des œuvres d’artistes, une question juridique qui reste floue.

Source-147