samedi, novembre 23, 2024

Stability AI prévoit de permettre aux artistes de se retirer de la formation d’image Stable Diffusion 3

Agrandir / Une image générée par l’IA d’une personne quittant un bâtiment, se désengageant ainsi de la convention des stores verticaux.

Ars Technica

Mercredi, Stability AI annoncé cela permettrait aux artistes de supprimer leur travail de l’ensemble de données d’entraînement pour une prochaine version de Stable Diffusion 3.0. Cette décision intervient alors qu’un groupe de défense des artistes appelé Spawning tweeté que Stability AI honorerait les demandes de désinscription recueillies sur son site Web Have I Been Trained. Les détails de la mise en œuvre du plan restent cependant incomplets et peu clairs.

En bref, Stable Diffusion, un modèle de synthèse d’images IA, a acquis sa capacité à générer des images en « apprenant » à partir d’un grand ensemble de données d’images extraites d’Internet sans consulter les titulaires de droits pour obtenir la permission. Certains artistes en sont mécontents car Stable Diffusion génère des images qui peuvent potentiellement rivaliser avec les artistes humains en quantité illimitée. Nous suivons le débat éthique depuis le lancement public de Stable Diffusion en août 2022.

Pour comprendre comment le système d’opt-out de Stable Diffusion 3 est censé fonctionner, nous avons créé un compte sur Have I Been Trained et téléchargé une image de l’Atari Pong dépliant d’arcade (que nous ne possédons pas). Une fois que le moteur de recherche du site a trouvé des correspondances dans la base de données d’images LAION (Large-scale Artificial Intelligence Open Network), nous avons cliqué avec le bouton droit de la souris sur plusieurs vignettes individuellement et sélectionné « Désactiver cette image » dans un menu contextuel.

Une fois signalés, nous pouvions voir les images dans une liste d’images que nous avions marquées comme désactivantes. Nous n’avons rencontré aucune tentative de vérification de notre identité ni aucun contrôle légal sur les images que nous avons soi-disant « désactivées ».

Une capture d'écran de
Agrandir / Une capture d’écran d’images « désactivées » que nous ne possédons pas sur le site Web Have I Been Trained. Les images avec des icônes de drapeau ont été « désactivées ».

Ars Technica

Autres accrocs : Pour supprimer une image de la formation, elle doit déjà être dans le jeu de données LAION et doit être consultable sur Have I Been Trained. Et il n’existe actuellement aucun moyen de désactiver de grands groupes d’images ou les nombreuses copies de la même image qui pourraient se trouver dans l’ensemble de données.

Le système, tel qu’il est actuellement mis en œuvre, soulève des questions qui ont fait écho dans les fils d’annonce sur Twitter et YouTube. Par exemple, si Stability AI, LAION ou Spawning entreprenaient l’énorme effort pour vérifier légalement la propriété afin de contrôler qui refuse les images, qui paierait pour le travail impliqué ? Les gens confieraient-ils à ces organisations les informations personnelles nécessaires pour vérifier leurs droits et leur identité ? Et pourquoi tenter de les vérifier alors que le PDG de Stability dit que légalement, l’autorisation n’est pas nécessaire pour les utiliser ?

Une vidéo de Spawning annonçant l’option de désinscription.

De plus, imposer à l’artiste la responsabilité de s’inscrire sur un site avec un connexion sans engagement à Stability AI ou à LAION, puis espérer que leur demande soit honorée semble impopulaire. En réponse aux déclarations sur le consentement de Spawning dans sa vidéo d’annonce, certaines personnes c’est noté que le processus d’opt-out ne correspond pas à la définition du consentement dans le règlement général européen sur la protection des données, qui stipule que le consentement doit être donné activement, et non supposé par défaut (« Le consentement doit être librement donné, spécifique, informé et sans ambiguïté. Afin de obtenir un consentement librement donné, il doit être donné sur une base volontaire. ») Dans ce sens, de nombreux se disputer que le processus doit être opt-in uniquement et que toutes les œuvres d’art doivent être exclues de la formation à l’IA par défaut.

Actuellement, il semble que Stability AI opère dans le cadre des lois américaines et européennes pour former Stable Diffusion à l’aide d’images grattées recueillies sans autorisation (bien que ce problème n’ait pas encore été testé devant les tribunaux). Mais l’entreprise prend également des mesures pour reconnaître le débat éthique qui a déclenché une grande protestation contre l’art en ligne généré par l’IA.

Existe-t-il un équilibre qui puisse satisfaire les artistes et permettre aux progrès de la technologie de synthèse d’images par IA de se poursuivre ? Pour l’instant, le PDG de Stability, Emad Mostaque, est ouvert aux suggestions, tweeter« L’équipe @laion_ai est très ouverte aux commentaires et souhaite créer de meilleurs ensembles de données pour tous et fait un excellent travail. De notre côté, nous pensons qu’il s’agit d’une technologie transformatrice et nous sommes heureux de nous engager avec toutes les parties et d’essayer d’être aussi transparents que possible. possible. Tout bouge et mûrit, vite. »

Source-147

- Advertisement -

Latest