Google veut un filigrane numérique invisible pour apporter de la transparence à l’art de l’IA

Google a fait aujourd’hui un pas vers la transparence dans les images générées par l’IA. Google DeepMind a annoncé SynthID, un outil de filigrane/identification pour l’art génératif. La société affirme que la technologie intègre un filigrane numérique, invisible à l’œil humain, directement sur les pixels d’une image. SynthID est d’abord déployé auprès d’un « nombre limité » de clients utilisant Imagen, le générateur d’art de Google disponible sur sa suite d’outils d’IA basés sur le cloud.

L’un des nombreux problèmes liés à l’art génératif – outre les implications éthiques de la formation sur le travail des artistes – est le potentiel de création de deepfakes. Par exemple, la nouvelle tenue hip-hop du pape (une image créée par l’IA avec MidJourney) qui est devenue virale sur les réseaux sociaux était un des premiers exemples de ce qui pourrait devenir plus courant à mesure que les outils génératifs évoluent. Il ne faut pas beaucoup d’imagination pour comprendre comment une publicité politique utilisant des œuvres d’art générées par l’IA pourrait faire bien plus de dégâts qu’une image amusante circulant sur Twitter. « Filigraner le contenu audio et visuel pour indiquer clairement que le contenu est généré par l’IA » était l’un des engagements volontaires que sept sociétés d’IA ont convenu de développer après une réunion en juillet à la Maison Blanche. Google est la première des entreprises à lancer un tel système.

Google ne va pas trop loin dans les détails de la mise en œuvre technique de SynthID (probablement pour empêcher des solutions de contournement), mais il indique que le filigrane ne peut pas être facilement supprimé par de simples techniques d’édition. « Il est difficile de trouver le bon équilibre entre l’imperceptibilité et la robustesse des manipulations d’images », a écrit la société dans un article de blog DeepMind publié aujourd’hui. « Nous avons conçu SynthID pour qu’il ne compromette pas la qualité de l’image et permette au filigrane de rester détectable, même après des modifications telles que l’ajout de filtres, le changement de couleurs et l’enregistrement avec divers systèmes de compression avec perte – le plus couramment utilisés pour les JPEG », chefs du projet SynthID de DeepMind. Sven Gowal et Pushmeet Kohli ont écrit.

Google DeepMind

La partie identification de SynthID évalue l’image en fonction de trois niveaux de confiance du filigrane numérique : détecté, non détecté et éventuellement détecté. Étant donné que l’outil est intégré aux pixels de l’image, Google affirme que son système peut fonctionner avec des approches basées sur les métadonnées, comme celle utilisée par Adobe avec ses fonctionnalités génératives Photoshop, actuellement disponibles en version bêta ouverte.

SynthID comprend une paire de modèles d’apprentissage profond : un pour le filigrane et l’autre pour l’identification. Google affirme que les deux se sont formés sur des images diverses, aboutissant à un modèle ML combiné. « Le modèle combiné est optimisé pour une série d’objectifs, notamment l’identification correcte du contenu filigrané et l’amélioration de l’imperceptibilité en alignant visuellement le filigrane sur le contenu original », ont écrit Gowal et Kohli.

Google a reconnu que ce n’est pas une solution parfaite, ajoutant qu’elle « n’est pas infaillible contre les manipulations extrêmes d’images ». Mais il décrit le filigrane comme « une approche technique prometteuse pour permettre aux personnes et aux organisations de travailler de manière responsable avec le contenu généré par l’IA ». La société affirme que l’outil pourrait s’étendre à d’autres modèles d’IA, y compris ceux chargés de générer du texte (comme ChatGPT), de la vidéo et de l’audio.

Bien que les filigranes puissent aider à lutter contre les deepfakes, il est facile d’imaginer que le filigrane numérique se transforme en une course aux armements avec les pirates informatiques, les services qui adoptent SynthID nécessitant une mise à jour continue. En outre, la nature open source de Stable Diffusion, l’un des principaux outils de génération, pourrait rendre difficile l’adoption de SynthID ou de toute solution similaire à l’échelle de l’industrie : il existe déjà d’innombrables versions personnalisées pouvant s’exécuter sur des PC locaux dans le monde. sauvage. Quoi qu’il en soit, Google espère mettre SynthID à la disposition de tiers « dans un avenir proche » pour au moins améliorer la transparence de l’IA à l’échelle du secteur.

Source-145