Un nouvel outil anti-IA « empoisonne » les modèles génératifs pour protéger les œuvres d’art des robots-Rembrandt non autorisés

AI generated art in the style of Aharon Kahana

Un nouvel outil mis au point par des chercheurs de l’Université de Chicago promet de protéger l’art contre l’aspiration par des modèles d’IA et son utilisation à des fins de formation sans autorisation en « empoisonnant » les données d’images.

Connu sous le nom de Nightshade, l’outil modifie les données d’images numériques d’une manière qui est censée être invisible à l’œil humain, mais qui provoque toutes sortes de problèmes pour les modèles de formation générative, tels que DALL-E, Midjourney et Stable Diffusion.

Source-69