mercredi, novembre 20, 2024

Un nouvel outil anti-IA « empoisonne » les modèles génératifs pour protéger les œuvres d’art des robots-Rembrandt non autorisés

Un nouvel outil mis au point par des chercheurs de l’Université de Chicago promet de protéger l’art contre l’aspiration par des modèles d’IA et son utilisation à des fins de formation sans autorisation en « empoisonnant » les données d’images.

Connu sous le nom de Nightshade, l’outil modifie les données d’images numériques d’une manière qui est censée être invisible à l’œil humain, mais qui provoque toutes sortes de problèmes pour les modèles de formation générative, tels que DALL-E, Midjourney et Stable Diffusion.

Source-69

- Advertisement -

Latest