Tout comme les moteurs GAI basés sur du texte comme Google SGE peuvent plagier les écrivains, les outils de génération d’images comme Stable Diffusion et Mid-Journey peuvent balayer le contenu des artistes visuels. Les robots (ou les humains imitateurs) vont sur le Web ouvert, récupèrent des images d’artistes et les utilisent comme données de formation sans le consentement ou la compensation de l’humain qui les a faites. Ensuite, les utilisateurs peuvent accéder à une invite et demander une peinture ou une illustration « dans le style » de l’artiste d’origine.
La prise de l’art comme données de formation fait déjà l’objet de plusieurs poursuites, un groupe d’artistes poursuivant actuellement Stablity AI, DeviantArt et Midjourney. Cependant, alors que nous attendons que les tribunaux et la loi rattrapent leur retard, un groupe de chercheurs de l’Université de Chicago a développé Glaze. Cet outil open source déplace les pixels sur les images, ce qui les rend plus difficiles à ingérer pour les IA. Aujourd’hui, après plusieurs mois en version bêta publique, Glaze 1.0 est lancé.
À partir d’aujourd’hui, vous pouvez télécharger gratuitement Glaze 1.0 et l’exécuter sur Windows ou macOS (pour le silicium Apple ou Intel). Vous pouvez l’utiliser avec ou sans GPU discret. J’ai téléchargé la version GPU pour Windows et l’ai essayée sur trois peintures du domaine public de Claude Monet : la Passerelle japonaise, les Chambres du Parlement et le Pont d’Argenteuil.
L’interface utilisateur est très simple, vous permettant de sélectionner les images elles-mêmes, un dossier de sortie pour les copies modifiées et des curseurs pour vous permettre de choisir l’intensité des modifications et la qualité du rendu.
L’augmentation de l’intensité des changements peut rendre l’image de sortie plus différente de l’originale, mais offre une meilleure protection. Augmenter la qualité du rendu augmente le temps nécessaire pour terminer le processus.
L’outil a un bouton « Aperçu », mais il ne fonctionne pas réellement, donnant un message indiquant que la version 1.0 ne prend pas en charge l’aperçu. Donc, pour voir comment vos images apparaîtront, vous devez les générer.
J’ai constaté qu’à des vitesses de rendu « plus rapides », le système prenait environ 90 secondes pour « glacer » deux images sur mon bureau (45 secondes chacune), qui exécute un GPU RTX 3080 et un processeur Ryzen 9 5900X. À la vitesse de rendu « la plus lente », une seule image a pris une minute et 40 secondes.
Dans le cadre du processus, l’outil évalue également la force de la protection qu’il a générée pour vous faire savoir s’il pense que votre image a été suffisamment modifiée pour tromper les IA. Les premières fois où j’ai modifié la « passerelle japonaise » de Monet, j’ai reçu une erreur indiquant qu’elle n’était pas suffisamment protégée (bien qu’elle ait produit les images). Lorsque j’ai augmenté l’intensité à « Très élevé », je n’ai plus reçu le message d’erreur.
Ci-dessous, vous verrez la passerelle japonaise originale, suivie de la version Very High / Slowest (meilleure protection) et du rendu Very Low / Fastest (qui a généré une erreur car n’étant pas assez protecteur). Les différences, même dans la version la plus protectrice, sont assez subtiles.
Ci-dessous, vous pouvez voir les deux autres images de Monet, avec chaque original suivi de sa version très élevée / la plus lente.
Alors, comment Glaze protège-t-il exactement vos images ? L’équipe derrière l’outil a réalisé cette vidéo YouTube utile pour l’expliquer en détail. Cependant, la réponse courte est que, bien que l’œil humain perçoive ces changements de pixels comme subtils, les bots ont beaucoup plus de mal avec eux.
Je n’ai pas pu tester différents types de dessins, donc certains pourraient sembler moins authentiques après modification que mes échantillons Monet. Il est également clair qu’il est peu probable que les photographies soient protégées par Glaze car elles n’ont pas suffisamment de style visuel unique à modifier.
Le résultat est que les robots peuvent s’entraîner sur les images, mais ils ne doivent pas capter avec précision le style des artistes et ce qui le rend unique. Par exemple, lorsqu’elle est entraînée sur la passerelle japonaise, une IA peut créer un pont similaire sur demande, mais pas avec les mêmes coups de pinceau. Je dis « pourrait » parce que je n’avais pas de moyen fiable de tester les images générées par Glaze comme données d’entraînement pour cette histoire, et, même si j’en avais un, il est possible qu’un autre outil d’IA fasse un meilleur travail de copie il.
Les fabricants de Glaze savent que les bots IA évoluent et que leur solution devra continuer à évoluer. Il y a une course aux armements pour protéger les images des artistes, et, étant donné que les entreprises d’IA ont beaucoup d’argent et de développeurs, elles ont l’avantage.
Cependant, Glaze est un bon pas en avant pour les artistes qui doivent montrer leur travail en ligne mais ne veulent pas qu’il soit utilisé pour les mettre en faillite.