lundi, décembre 23, 2024

Un nouvel outil d’empoisonnement des données punirait l’IA pour avoir récupéré des œuvres d’art sans autorisation

Des chercheurs de l’Université de Chicago ont développé un outil qui donne aux artistes la possibilité d’« empoisonner » leur art numérique afin d’empêcher les développeurs de former des systèmes d’intelligence artificielle (IA) sur leur travail.

Appelé « Nightshade », d’après la famille de plantes, dont certaines sont connues pour leurs baies vénéneuses, l’outil modifie les images de telle manière que leur inclusion contamine les ensembles de données utilisés pour entraîner l’IA avec des informations incorrectes.

Selon un rapport du Technology Review du MIT, Nightshade changements les pixels d’une image numérique afin de tromper un système d’IA pour qu’il l’interprète mal. À titre d’exemple, Tech Review mentionne le fait de convaincre l’IA qu’une image d’un chat est un chien et vice versa.

Ce faisant, la capacité de l’IA à générer des résultats précis et sensés serait théoriquement endommagée. En utilisant l’exemple ci-dessus, si un utilisateur demandait une image d’un « chat » à l’IA contaminée, il pourrait à la place obtenir un chien étiqueté comme un chat ou une fusion de tous les « chats » de l’ensemble d’entraînement de l’IA, y compris ceux qui sont en fait des images de chiens qui ont été modifiées par l’outil Nightshade.

En rapport: Universal Music Group conclut un partenariat pour protéger les droits des artistes contre les violations de l’IA

Un expert qui a consulté les travaux, Vitaly Shmatikov, professeur à l’Université Cornell, a estimé que les chercheurs « ne connaissent pas encore de défenses robustes contre ces attaques ». L’implication étant que même des modèles robustes tels que ChatGPT d’OpenAI pourraient être menacés.

L’équipe de recherche derrière Nightshade est dirigée par le professeur Ben Zhao de l’Université de Chicago. Le nouvel outil est en fait une extension de leur logiciel de protection des artistes existant. appelé Glaçage. Dans leurs travaux précédents, ils ont conçu une méthode par laquelle un artiste pourrait obscurcir ou « glacer » le style de son œuvre.

Un artiste qui a créé un portrait au fusain, par exemple, pourrait être vitré pour apparaître à un système d’IA comme de l’art moderne.

Exemples d’imitations d’art IA non vitrées et vitrées. Source des images : Shan et. al., 2023.

Selon Technology Review, Nightshade sera finalement implémenté dans Glaze, qui est actuellement disponible gratuit pour une utilisation sur le Web ou pour téléchargement sur le site Web de l’Université de Chicago.