dimanche, décembre 1, 2024

Les chercheurs affirment que les filigranes IA actuels sont faciles à supprimer

Un filigrane traditionnel est un logo ou un motif visible qui peut apparaître sur n’importe quoi, de l’argent liquide dans votre portefeuille à un timbre-poste, le tout dans le but de décourager la contrefaçon. Vous avez peut-être vu un filigrane dans l’aperçu de vos photos de remise des diplômes, par exemple. Mais dans le cas de l’intelligence artificielle, cela prend une légère tournure, comme le font habituellement la plupart des choses dans l’espace.

Dans le contexte de l’IA, peut permettre à un ordinateur de détecter si un texte ou une image est généré à partir de l’intelligence artificielle. Mais pourquoi filigraner les images pour commencer ? L’art génératif crée un terrain fertile pour la création de contrefaçons profondes et d’autres informations erronées. Ainsi, bien qu’ils soient invisibles à l’œil nu, les filigranes peuvent lutter contre l’utilisation abusive du contenu généré par l’IA et peuvent même être intégrés dans des programmes d’apprentissage automatique développés par des géants de la technologie comme Google. D’autres acteurs majeurs du secteur, d’OpenAI à Meta et Amazon, utilisent la technologie du filigrane pour lutter contre la désinformation.

C’est pourquoi des chercheurs en informatique de l’Université du Maryland (UMD) ont décidé d’examiner et de comprendre à quel point il est facile pour les acteurs malveillants d’ajouter ou de supprimer des filigranes. , professeur à l’UMD que les conclusions de son équipe confirment son scepticisme quant à l’absence d’applications de filigrane fiables à ce stade. Les chercheurs ont pu facilement contourner les méthodes actuelles de filigrane lors des tests et ont trouvé encore plus facile d’ajouter de faux emblèmes aux images qui n’étaient pas générées par l’IA. Mais au-delà des tests sur la facilité avec laquelle il est possible d’échapper aux filigranes, une équipe UMD a notamment développé un filigrane presque impossible à supprimer du contenu sans compromettre complètement la propriété intellectuelle. Cette application permet de détecter quand des produits sont volés.

Google

Dans le cadre d’une opération similaire entre l’Université de Californie à Santa Barbara et l’Université Carnegie Mellon, les chercheurs ont découvert que grâce à des attaques simulées, les filigranes étaient facilement amovibles. Le document distingue deux méthodes distinctes pour éliminer les filigranes via ces attaques : les approches destructrices et constructives. Lorsqu’il s’agit d’attaques destructrices, les mauvais acteurs peuvent traiter les filigranes comme s’ils faisaient partie de l’image. Ajuster des éléments tels que la luminosité, le contraste ou utiliser la compression JPEG, ou même simplement faire pivoter une image, peut supprimer un filigrane. Cependant, le problème ici est que même si ces méthodes suppriment le filigrane, elles perturbent également la qualité de l’image, la rendant sensiblement pire. Dans une attaque constructive, la suppression du filigrane est un peu plus sensible et utilise des techniques comme le bon vieux flou gaussien.

Bien que le tatouage du contenu généré par l’IA doive être amélioré avant de pouvoir passer avec succès des tests simulés similaires à ceux présentés dans ces études de recherche, il est facile d’imaginer un scénario dans lequel le tatouage numérique deviendrait un outil contre les pirates. Jusqu’à ce qu’une nouvelle norme soit développée, nous ne pouvons qu’espérer le meilleur en ce qui concerne les nouveaux outils comme celui de Google, un outil d’identification pour l’art génératif, qui continuera à être travaillé par les développeurs jusqu’à ce qu’il soit largement répandu.

Mais le moment ne pourrait pas être meilleur pour l’innovation des leaders d’opinion. Alors que l’élection présidentielle de 2024 aux États-Unis est sur le point d’occuper le devant de la scène, le contenu généré par l’IA pourrait jouer un rôle énorme en influençant l’opinion politique avec des choses comme les fausses publicités. L’administration Biden l’a même fait, citant qu’il existe des inquiétudes raisonnables quant à la manière dont l’intelligence artificielle peut être utilisée à des fins perturbatrices, en particulier dans le domaine de la désinformation.

Source-145

- Advertisement -

Latest