Mise à jour: Le créateur de l’outil a publié un Fil Twitter (s’ouvre dans un nouvel onglet) mieux expliquer comment cela fonctionne et réitérer qu’il ne fonctionne pas comme prévu avec des images non générées par l’IA. Ils notent également que « il y a clairement beaucoup de place à l’amélioration ici », et que tout ne fonctionne pas encore dans l’outil destiné au public.
Stable Attribution semble être un outil difficile dans la pratique, mais il est toujours en version bêta aujourd’hui. Ce n’est pas un processus simple de discerner où exactement une IA a appris à créer ce qu’elle crée, ou combien une image sur des milliards joue dans la création d’une autre. Peut-être verrons-nous cet outil se matérialiser en quelque chose d’utile pour l’attribution avec le temps, ou les entreprises derrière ces générateurs d’images d’IA trouveront un autre moyen de calmer les artistes exigeant un jeton pour leur travail pour que tout cela se produise. Mais peut-être que c’est juste un vœu pieux de ma part au nom des artistes.
Histoire originale : Les outils d’art de l’IA ont connu une ascension fulgurante en popularité au cours de l’année écoulée. Des millions de personnes utilisent désormais des outils incroyablement impressionnants tels que DALL-E 2 et Stable Diffusion pour générer des images apparemment sorties de nulle part à l’aide d’invites de texte. Mais ils ne viennent pas de nulle part, et Stable Attribution (s’ouvre dans un nouvel onglet) espère rendre tout le monde plus conscient de l’art créé par l’homme dont l’art de l’IA dérive finalement.
L’attribution stable est un algorithme qui vous permet de détecter les images sources susceptibles d’être utilisées dans la création d’art IA. C’est une sorte d’algorithme de rétro-ingénierie ; trouver l’œuvre d’art créée par l’homme qui a aidé l’IA à s’en sortir. Cela pourrait devenir quelque chose de très important pour les artistes dans une querelle en cours avec les outils de génération d’images AI. L’attribution stable pourrait offrir aux artistes un moyen de reprendre le contrôle sur l’utilisation de leurs images.
Voici un exemple de la façon dont cela fonctionne. J’entre une invite dans le générateur d’images AI Stable Diffusion : « un PC géant errant dans les bois à la recherche de pièces PC fraîches à consommer ». L’IA crache l’image suivante.
Ensuite, je télécharge cette image, la dépose dans Stable Attribution, et elle crache une collection d’images (s’ouvre dans un nouvel onglet) qu’il croit avoir été utilisé dans la formation de Stable Diffusion et probablement référencé dans la création de mon image incitée. Dans ce cas : une bannière de produit, une image d’une école professionnelle en Espagne, une photo de style de vie de produit, et bien d’autres.
Si l’une des images est la vôtre ou celle de quelqu’un que vous connaissez, vous pouvez soumettre un lien vers le crédit approprié.
Stable Attribution fonctionne en décodant un modèle d’IA dans les exemples les plus similaires qu’il peut trouver dans les ensembles de données à sa disposition. Certaines entreprises utilisent des ensembles de données accessibles au public, tels que Stable Diffusion et LAION, ce qui signifie que Stable Attribution peut également indexer une copie de l’ensemble de données pour les références croisées. Cependant, les données de formation d’OpenAI ne sont pas accessibles au public, ce qui arrête tout outil de ce type pour DALL-E 2 dans son élan.
L’attribution stable n’est pas non plus un algorithme parfait pour l’attribution.
« La version 1 de l’algorithme d’attribution stable n’est pas parfaite, en partie parce que le processus de formation est bruyant et que les données de formation contiennent beaucoup d’erreurs et de redondance. » Stable Attribution dit.
La similitude entre l’image de sortie et celles utilisées dans la formation n’est pas un moyen parfait de discerner ce qui a contribué à créer une image dans ce cas précis. Les algorithmes d’IA deviennent de plus en plus complexes dans leur façon de procéder.
« Mais ce n’est pas un problème impossible », poursuit Stable Attribution.
À ceux d’entre vous qui soutiennent que https://t.co/RL2cP9fpgv est « imparfait » pour une raison de conception ou une raison technique : veuillez considérer que cela devrait être la valeur par défaut dans tous les outils génératifs, afin d’informer les artistes IA si leur sortie enfreint sur les données d’entraînement. ? (1/3)6 février 2023
Comme le note l’expert en IA Alex J. Champandard, cela pourrait être un outil aussi utile pour les artistes de l’IA que pour les artistes qui estiment que leurs droits d’auteur ont été violés. Si vous vendez des œuvres d’art générées par une IA, y a-t-il un cas pour une réclamation de droit d’auteur contre vous ? Êtes-vous responsable de l’utilisation d’un outil d’IA ou plutôt de l’entreprise qui crée l’outil d’IA ? La formation sur un ensemble de données utilisant du matériel protégé par le droit d’auteur est-elle injuste et en violation du droit d’auteur ? Ce sont les questions pour lesquelles nous n’avons pas encore de précédent juridique clair, mais vous pouvez être sûr que ce débat fera rage dans les années à venir.
Cela dépend en grande partie de la formation. Utilisation des outils d’image AI des masses de données pour s’entraîner. La formation est le processus qui consiste à apprendre à une IA à faire quelque chose, et dans le cas de Stable Diffusion et DALL-E 2, c’est à produire des images qui correspondent aux descriptions qui leur sont données. Il n’y a rien de mal en soi à entraîner une IA à faire quelque chose, à moins que ce ne soit quelque chose de moralement ambigu ou de sacrément mauvais. Dans ce cas, ces IA sont formées à la génération d’images simples, pour la plupart inoffensives. Pas de problème là-bas, non ?
Eh bien, non, pas nécessairement.
Les données utilisées pour cette formation sont généralement extraites du Web, ce qui signifie qu’une URL et une description de l’image sont stockées dans une base de données et ensuite introduites dans l’algorithme. Ces ensembles de données peuvent contenir des millions de paires d’URL et de balises de description, et le plus souvent vendus ou donnés par des sociétés tierces de collecte d’ensembles de données.
Le problème que les artistes posent à ces outils d’art IA est que ces ensembles de données sont souvent remplis d’images protégées par le droit d’auteur. Le grattage est en grande partie aveugle; un ensemble de données peut contenir des œuvres d’art que vous avez téléchargées sur un forum en 2008, ou des œuvres d’art que vous avez déjà soumises à un concours en ligne. Il pourrait contenir des images offensantes qui doivent être supprimées (s’ouvre dans un nouvel onglet). Un ensemble de données peut même contenir une photo de vous, et vous devrez demander à la société de l’ensemble de données de la supprimer si vous n’aimez pas l’idée qu’une IA soit formée à votre image.
C’est assez désordonné. La loi n’a pas rattrapé les outils d’IA, mais nous commençons à voir plusieurs poursuites intentées contre StabilityAI, OpenAI et bien d’autres entreprises d’IA comme elles, pour violation du droit d’auteur. (s’ouvre dans un nouvel onglet). Les artistes ont le sentiment que leur style artistique est copié par une IA et utilisé pour soutenir des entreprises valant désormais des milliards de dollars (s’ouvre dans un nouvel onglet). Pendant ce temps, ils n’ont jamais donné leur consentement pour que leurs images soient utilisées, quel que soit le droit d’auteur de ces images, et reçoivent rarement un sou pour leur contribution.
Cependant, nous avons vu des tentatives pour rendre les outils d’art de l’IA plus justes pour les artistes. Shutterstock propose désormais de l’art IA (s’ouvre dans un nouvel onglet) en partenariat avec OpenAI mais versera une redevance aux artistes dont le travail a servi à sa création. Une toute autre stratégie que celle de Getty Images, qui a porté plainte contre Stability AI (s’ouvre dans un nouvel onglet) sur l’utilisation des images de sa bibliothèque à des fins de formation. Stable Diffusion prévoit également de permettre aux artistes de se désabonner des futures versions de l’outil (s’ouvre dans un nouvel onglet), mais vous ne pouvez pas vous empêcher de penser que cela aurait dû être une option en premier lieu. Stable Diffusion n’a vraiment aucune prétention à aucune de ces images au sens juridique, même si leur utilisation dans la formation est une zone quelque peu grise, mais pourquoi devrait-il incomber aux individus de leur dire de licencier ?
Ces affaires judiciaires ne donneront aucune réponse avant un certain temps, et même alors, il est peu probable qu’une opinion soit la fin de l’affaire. La législation a beaucoup à rattraper en matière d’IA, et la génération d’images ne représente qu’une petite partie du débat.