Kin.art lance un outil gratuit pour empêcher les modèles GenAI de s’entraîner sur les œuvres d’art

C’est une merveille ce que l’IA générative, en particulier les modèles d’IA texte-image comme Midjourney et DALL-E 3 d’OpenAI, peuvent faire. Du photoréalisme au cubisme, les modèles générateurs d’images peuvent traduire pratiquement n’importe quelle description, courte ou détaillée, en art qui aurait très bien pu sortir du chevalet d’un artiste.

Le problème est que bon nombre de ces modèles – sinon la plupart – ont été formés aux œuvres d’art à l’insu ou sans la permission des artistes. Et même si certains fournisseurs ont commencé à rémunérer les artistes ou à proposer des moyens de « se retirer » de la formation des modèles, beaucoup ne l’ont pas fait.

Au lieu des conseils des tribunaux et du Congrès, les entrepreneurs et les militants publient des outils conçus pour permettre aux artistes de modifier leurs œuvres afin qu’elles ne puissent pas être utilisées dans la formation de modèles GenAI. L’un de ces outils, Nightshade, publié cette semaine, apporte des modifications subtiles aux pixels d’une image pour tromper les modèles en leur faisant croire que l’image représente quelque chose de différent de ce qu’elle fait réellement. Un autre, Kin.art, utilise la segmentation d’image (c’est-à-dire la dissimulation de parties d’une œuvre d’art) et la randomisation des balises (en échangeant les métabalises d’image d’une œuvre d’art) pour interférer avec le processus de formation du modèle.

Lancé aujourd’hui, l’outil Kin.art a été co-développé par Flor Ronsmans De Vry, qui a cofondé Kin.art, une plateforme de gestion de commandes artistiques, aux côtés de Mai Akiyoshi et Ben Yu il y a quelques mois.

Comme Ronsmans De Vry l’a expliqué dans une interview, les modèles générateurs d’art sont formés sur des ensembles de données d’images étiquetées pour apprendre les associations entre les concepts écrits et les images, comme la façon dont le mot « oiseau » peut désigner non seulement les oiseaux bleus mais aussi les perruches et les pygargues à tête blanche (en plus de notions plus abstraites). En « perturbant » soit l’image, soit les étiquettes associées à une œuvre d’art donnée, il devient d’autant plus difficile pour les vendeurs d’utiliser l’œuvre d’art dans la formation de modèles, dit-il.

Kin.art

Un profil d’artiste sur Kin.art. Crédits images : Kin.art

« Concevoir un paysage où l’art traditionnel et l’art génératif peuvent coexister est devenu l’un des défis majeurs auxquels l’industrie de l’art est confrontée », a déclaré Ronsmans De Vry à TechCrunch par courrier électronique. « Nous pensons que cela commence par une approche éthique de la formation en IA, où les droits des artistes sont respectés. »

Ronsmans De Vry affirme que l’outil anti-entraînement de Kin.art est supérieur à certains égards aux solutions existantes car il ne nécessite pas de modification cryptographique des images, ce qui peut être coûteux. Mais, ajoute-t-il, elle peut également être combinée à ces méthodes comme protection supplémentaire.

Kin.art

La méthode de segmentation anti-modèle de Kin.art. Crédits images : Kin.art

« D’autres outils disponibles pour vous protéger contre l’entraînement à l’IA tentent d’atténuer les dommages une fois que vos œuvres d’art ont déjà été incluses dans l’ensemble de données par empoisonnement », a déclaré Ronsmans De Vry. « Nous empêcher votre œuvre d’être insérée en premier lieu.

Désormais, Kin.art a un produit à vendre. Bien que l’outil soit gratuit, les artistes doivent télécharger leurs œuvres sur la plateforme de portfolio Kin.art afin de pouvoir l’utiliser. L’idée actuelle est sans aucun doute que l’outil orientera les artistes vers la gamme de services payants de recherche et de facilitation de commandes artistiques de Kin.art, son activité principale.

Mais Ronsmans De Vry positionne cet effort comme étant essentiellement philanthropique, promettant que Kin.art mettra l’outil à la disposition de tiers à l’avenir.

« Après avoir testé notre solution sur notre propre plate-forme, nous prévoyons de la proposer en tant que service pour permettre à tout petit site Web ou grande plate-forme de protéger facilement ses données contre une utilisation sans licence », a-t-il déclaré. « Posséder et être capable de défendre les données de votre plateforme à l’ère de l’IA est plus important que jamais. . . Certaines plates-formes ont la chance de pouvoir sécuriser leurs données en empêchant les non-utilisateurs d’y accéder, mais d’autres doivent fournir des services destinés au public et n’ont pas ce luxe. C’est là qu’interviennent des solutions comme la nôtre.

Source-146