Kickstarter a mis fin à la campagne du groupe porno AI Unstable Diffusion au milieu de l’évolution des directives

Le groupe essayant de monétiser la génération de porno AI, Unstable Diffusion, a collecté plus de 56 000 $ sur Kickstarter auprès de 867 contributeurs. Maintenant, alors que Kickstarter change sa façon de penser sur le type de projets basés sur l’IA qu’il autorisera, la plateforme de financement participatif a mis fin à la campagne de Unstable Diffusion. Étant donné que Kickstarter utilise un modèle tout ou rien et que la campagne n’est pas encore terminée, tout l’argent collecté par Unstable Diffusion sera restitué aux bailleurs de fonds. En d’autres termes, Unstable Diffusion ne verra pas ces 56 000 $, ce qui a plus que doublé son objectif initial de 25 000 $.

« Au cours des derniers jours, nous avons engagé notre conseil consultatif communautaire et nous avons lu vos commentaires via notre équipe et les médias sociaux », a déclaré le PDG Everette Taylor dans un article de blog. « Et une chose est claire : Kickstarter doit, et sera toujours, du côté du travail créatif et des humains derrière ce travail. Nous sommes là pour aider le travail créatif à prospérer.

La nouvelle approche de Kickstarter pour héberger des projets d’IA est intentionnellement vague.

« Cette technologie est vraiment nouvelle, et nous n’avons pas toutes les réponses », a écrit Taylor. « Les décisions que nous prenons maintenant ne seront peut-être pas celles que nous prendrons à l’avenir, nous voulons donc que ce soit une conversation continue avec vous tous. »

À l’heure actuelle, la plate-forme indique qu’elle examine la manière dont les projets s’interfacent avec le matériel protégé par le droit d’auteur, en particulier lorsque le travail des artistes apparaît dans les données de formation d’un algorithme sans consentement. Kickstarter examinera également si le projet « exploitera une communauté particulière ou mettra quiconque en danger ».

Ces derniers mois, des outils tels que ChatGPT d’OpenAI et Stable Diffusion de Stability AI ont rencontré un grand succès, amenant les conversations sur l’éthique des œuvres d’art de l’IA au premier plan du débat public. Si des applications comme Lensa AI peuvent tirer parti de l’open source Stable Diffusion pour créer instantanément des avatars artistiques qui ressemblent au travail d’un artiste professionnel, quel impact cela a-t-il sur ces mêmes artistes qui travaillent ?

Certains artistes se sont tournés vers Twitter pour faire pression sur Kickstarter afin qu’il abandonne le projet Unstable Diffusion, invoquant des inquiétudes quant à la façon dont les générateurs d’art IA peuvent menacer la carrière des artistes.

Beaucoup citent le sort du travail de Greg Rutkowski comme exemple de ce qui peut mal tourner. Illustrateur vivant qui a créé des illustrations détaillées et de haute fantaisie pour des franchises comme « Donjons & Dragons », le nom de Rutkowski était l’un des termes de recherche les plus populaires de Stable Diffusion lors de son lancement en septembre, permettant aux utilisateurs de reproduire facilement son style distinctif. Rutkowski n’a jamais consenti à ce que ses œuvres soient utilisées pour former l’algorithme, ce qui l’a amené à devenir un ardent défenseur de l’impact des générateurs d’art de l’IA sur les artistes en activité.

«Avec un financement de 25 000 $, nous pouvons nous permettre de former le nouveau modèle avec 75 millions d’images de haute qualité composées d’environ 25 millions d’images d’anime et de cosplay, d’environ 25 millions d’images artistiques d’Artstation/DeviantArt/Behance et d’environ 25 millions d’images photographiques», Unstable Diffusion a écrit dans son Kickstarter. Cela a déclenché la sonnette d’alarme pour les artistes indépendants, dont beaucoup publient leur travail sur des sites Web comme ceux mentionnés par Unstable Diffusion.

Spawning, un ensemble d’outils d’intelligence artificielle conçus pour soutenir les artistes, a développé un site Web appelé Have I Been Trained, qui permet aux artistes de voir si leur travail apparaît dans des ensembles de données populaires et de se retirer. Selon une affaire judiciaire d’avril, il existe un précédent juridique pour défendre le grattage de données accessibles au public.

Malgré le coup de sa suspension Kickstarter, Unstable Diffusion continue de récolter des fonds ailleurs.

« Alors que la capitulation de Kickstarter face à un sous-ensemble bruyant d’artistes nous déçoit, nous et nos supporters ne reculerons pas dans la défense de la liberté de créer », a déclaré Arman Chaudhry, PDG d’Unstable Diffusion, dans un message Discord à TechCrunch. « Nous avons mis à jour notre nouveau site Web, pour permettre à nos supporters de contribuer directement à la création et à la sortie de nouveaux systèmes d’IA artistiques plus puissants que jamais. Nous répondons à l’appel pour nous défendre contre le lobbying des artistes pour rendre illégal tout l’art de l’IA, et le soutien des bailleurs de fonds nous permettra de défier ce lobby de plus en plus bien financé et organisé.

Unstable Diffusion traite désormais les dons directement sur son site Web en utilisant Stripe. Jusqu’à présent, il a recueilli plus de 15 000 $.

Dans un message plus long envoyé à la communauté Unstable Diffusion Discord, qui compte plus de 97 000 membres, Chaudhry a mis en garde les membres contre les mouvements croissants d’artistes anti-IA.

« Il semble que la foule anti-IA essaie de nous réduire au silence et d’éradiquer notre communauté en envoyant de faux rapports à Kickstarter, Patreon et Discord. Ils ont même lancé une campagne GoFundMe avec plus de 150 000 $ collectés dans le but de faire pression sur les gouvernements pour rendre l’art de l’IA illégal », a-t-il écrit.

La déclaration continue : « Malheureusement, nous avons vu d’autres communautés et entreprises trembler face à ces attaques. Zeipher a annoncé la suspension de toutes les versions de modèles et fermé sa communauté et Stability AI supprime désormais les artistes de Stable Diffusion 3.0. Mais nous ne serons pas réduits au silence. Nous ne les laisserons pas réussir dans leurs efforts pour étouffer notre créativité et notre innovation. Notre communauté est forte (près de 100 000 utilisateurs) et nous ne serons pas vaincus par un petit groupe d’individus qui ont trop peur d’adopter de nouveaux outils et technologies.

Problèmes inhérents à la génération de porno AI

Les questions éthiques sur les illustrations d’IA deviennent encore plus obscures lorsque l’on considère des projets comme Unstable Diffusion, qui se concentrent sur le développement de contenu NSFW.

Stable Diffusion utilise un ensemble de données de 2,3 milliards d’images pour former son générateur de texte à image. Mais seulement 2,9% environ de l’ensemble de données contient du matériel NSFW, ce qui donne peu de choses au modèle en matière de contenu explicite. C’est là qu’intervient Unstable Diffusion. Le projet, qui fait partie d’Equilibrium AI, a recruté des volontaires sur son serveur Discord pour développer des ensembles de données pornographiques plus robustes afin d’affiner leur algorithme, de la même manière que vous téléchargeriez plus de photos de canapés et de chaises sur un jeu de données si vous vouliez créer une IA de génération de meubles.

Mais tout générateur d’IA est susceptible d’être victime des biais des humains derrière l’algorithme. Une grande partie de la pornographie gratuite et facilement accessible en ligne est développée pour le regard masculin, ce qui signifie que c’est probablement ce que l’IA va cracher, surtout si ce sont les types d’images que les utilisateurs saisissent dans l’ensemble de données.

Dans son Kickstarter maintenant suspendu, Unstable Diffusion a déclaré qu’il travaillerait à la création d’un modèle d’art d’IA qui peut «mieux gérer l’anatomie humaine, générer dans des styles artistiques divers et contrôlables, représenter plus équitablement des concepts sous-formés comme LGBTQ et les races et les sexes. ”

De plus, il n’y a aucun moyen de vérifier si une grande partie de la pornographie disponible gratuitement sur Internet a été faite de manière consensuelle (cependant, les créateurs adultes qui utilisent des plateformes payantes comme OnlyFans et ManyVids doivent vérifier leur âge et leur identité avant d’utiliser ces services). Même dans ce cas, si un modèle consent à apparaître dans le porno, cela ne signifie pas qu’il consent à ce que ses images soient utilisées pour former une IA. Bien que cette technologie puisse créer des images incroyablement réalistes, cela signifie également qu’elle peut être armée pour créer de la pornographie deepfake non consensuelle.

Actuellement, peu de lois dans le monde concernent la pornographie deepfake non consensuelle. Aux États-Unis, seules la Virginie et la Californie ont des réglementations limitant certaines utilisations de médias pornographiques contrefaits et contrefaits.

« Un aspect qui m’inquiète particulièrement est l’impact disparate de la pornographie générée par l’IA sur les femmes », a déclaré Ravit Dotan, vice-président responsable de l’IA chez Mission Control, à TechCrunch le mois dernier. « Par exemple, une ancienne application basée sur l’IA qui peut ‘déshabiller’ les gens ne fonctionne que sur les femmes. »

Mise à jour, 22/12/22, 9h55 HE avec déclaration de Unstable Diffusion.

Source-146