Getty Images a interdit le téléchargement et la vente de toutes les images générées par une IA, une tentative de se protéger de tout problème juridique pouvant découler de ce qui est en fait un Far West de la génération artistique aujourd’hui.
« Il y a de réelles inquiétudes concernant le droit d’auteur des sorties de ces modèles et des problèmes de droits non résolus concernant l’imagerie, les métadonnées de l’image et les personnes contenues dans l’imagerie », a déclaré Craig Peters, PDG de Getty Images, à The Verge. (s’ouvre dans un nouvel onglet).
Avec l’essor des outils d’art IA tels que DALL-E, Stable Diffusion et Midjourney, entre autres, il y a eu un afflux soudain d’images générées par l’IA sur le Web. Pour la plupart, nous avons vu ces images aller et venir comme des gaffes divertissantes sur Twitter et d’autres plateformes de médias sociaux, mais à mesure que ces algorithmes d’IA deviennent plus complexes et efficaces pour la création d’images, nous verrons ces images utilisées pour beaucoup Suite.
Et c’est une entreprise que Getty, l’un des principaux fournisseurs de bibliothèques d’images organisées, veut éviter.
Le PDG de Getty a refusé de dire si la société avait déjà reçu des contestations judiciaires concernant des images générées par l’IA, mais a affirmé qu’elle avait un contenu généré par l’IA « extrêmement limité » dans sa bibliothèque.
Tous les algorithmes de génération d’images AI nécessitent une formation, et des ensembles d’images massifs sont nécessaires pour le faire efficacement. Comme le rapporte The Verge, Stable Diffusion est formé sur des images extraites du Web via un ensemble de données de l’association caritative allemande LAION. Cet ensemble de données a été créé conformément à la loi allemande, indique le site Web Stable Diffusion, bien qu’il admette que la légalité exacte concernant le droit d’auteur pour les images créées à l’aide de son outil « variera d’une juridiction à l’autre ».
En tant que tel, il est susceptible de devenir de plus en plus difficile de dire si une œuvre d’art est dérivée d’une autre image protégée par le droit d’auteur.
Il existe d’autres préoccupations concernant les ensembles de données d’images et les techniques de grattage, car un artiste basé en Californie a découvert des photographies de dossiers médicaux privés (s’ouvre dans un nouvel onglet), prises par leur médecin, dans le jeu d’images LAION-5B. L’artiste, Lapine, a découvert que leurs images avaient été utilisées grâce à l’utilisation d’un site Web spécialement conçu pour dire aux artistes si leur travail a été utilisé dans ce genre de décors, appelé « Ai-je été formé ? » (s’ouvre dans un nouvel onglet)‘
Ces images ont été confirmées par Ars Technica dans une interview avec Lapine, qui a gardé leur identité confidentielle pour des raisons de confidentialité. Bien qu’il soit clair que la confidentialité n’a pas été accordée aux dossiers médicaux prétendument confidentiels détenus par le médecin de l’artiste après le décès du médecin en 2018, et il est assez inquiétant de penser à la façon dont ceux-ci se sont retrouvés dans un ensemble de données très public sans autorisation depuis.
Lapine n’est pas non plus la seule personne concernée, semble-t-il, car Ars déclare également que lors d’une recherche de photos de Lapine, ils ont découvert d’autres images qui auraient pu être obtenues par des moyens similaires.
?Mon visage est dans le jeu de données #LAION. En 2013, un médecin a photographié mon visage dans le cadre de la documentation clinique. Il est décédé en 2018 et, d’une manière ou d’une autre, cette image s’est retrouvée quelque part en ligne, puis dans l’ensemble de données – l’image sur laquelle j’ai signé un formulaire de consentement pour mon médecin – et non pour un ensemble de données. pic.twitter.com/TrvjdZtyjD16 septembre 2022
Interrogé sur l’ensemble d’images, le PDG de la société à l’origine de Stable Diffusion, Stability AI, a déclaré qu’il ne pouvait pas parler au nom de LAION, mais a déclaré qu’il pourrait être possible de désentraîner Stable Diffusion pour supprimer certaines images de son algorithme, mais que le résultat final tel qu’il se présente aujourd’hui n’est pas une copie exacte des informations d’un ensemble d’images donné.
Il y a de plus en plus de problèmes juridiques et de confidentialité qui resurgiront sans aucun doute dans les mois et les années à venir concernant la production et la distribution d’images générées par l’IA. Ce qui est un outil amusant, et peut-être même parfois pratique, est très susceptible de devenir un sujet délicat pour les législateurs, les titulaires de droits et les citoyens privés.
Je ne reproche pas aux bibliothèques d’images séculaires d’avoir pris du recul par rapport à la technologie entre-temps.