En partenariat avec Google Cloud, Google Deepmind, la division de recherche sur l’IA de Google, lance un outil de filigrane et d’identification des images générées par l’IA. Mais uniquement des images créées par le propre modèle de génération d’images de Google.
L’outil, appelé SnythID et disponible en version bêta pour certains utilisateurs de Vertex AI, la plateforme de Google permettant de créer des applications et des modèles d’IA, intègre un filigrane numérique directement dans les pixels d’une image, la rendant apparemment imperceptible à l’œil humain mais détectable par un algorithme. . SynthID prend uniquement en charge Imagen, le modèle texte-image de Google, disponible exclusivement dans Vertex AI.
Google a précédemment déclaré qu’il intégrerait des métadonnées pour signaler les médias visuels créés par des modèles d’IA génératifs. SynthID, évidemment, va plus loin.
« Bien que l’IA générative puisse libérer un énorme potentiel créatif, elle présente également de nouveaux risques, comme permettre aux créateurs de diffuser de fausses informations, intentionnellement ou non », écrit DeepMind dans un article de blog. « Être capable d’identifier le contenu généré par l’IA est essentiel pour permettre aux gens de savoir quand ils interagissent avec les médias générés et pour aider à prévenir la propagation de la désinformation. »
DeepMind affirme que SynthID, qu’il a développé et peaufiné en partenariat avec Google Research, l’équipe R&D de Google, reste en place même après des modifications telles que l’ajout de filtres, la modification des couleurs et la compression élevée des images. L’outil exploite deux modèles d’IA, un pour le filigrane et un pour l’identification, qui ont été formés ensemble sur un ensemble « diversifié » d’images, explique DeepMind.
SynthID ne peut pas identifier les images filigranées avec une confiance de 100 %. Mais l’outil fait la distinction entre les cas où une image pourrait contenir un filigrane par rapport à une image est hautement probable pour en contenir un.
« SynthID n’est pas infaillible contre les manipulations extrêmes d’images, mais il fournit une approche technique prometteuse pour permettre aux personnes et aux organisations de travailler de manière responsable avec le contenu généré par l’IA », écrit DeepMind dans le billet de blog. « Cet outil pourrait également évoluer aux côtés d’autres modèles et modalités d’IA au-delà de l’imagerie, comme l’audio, la vidéo et le texte. »
Les techniques de filigrane pour l’art génératif ne sont pas nouvelles. La startup française Imatag, lancée en 2020, propose un outil de filigrane qui, selon elle, n’est pas affecté par le redimensionnement, le recadrage, l’édition ou la compression des images, similaire à SynthID. Une autre société, Steg.AI, utilise un modèle d’IA pour appliquer des filigranes qui survivent au redimensionnement et à d’autres modifications.
Mais la pression s’accentue sur les entreprises technologiques pour qu’elles fournissent un moyen d’indiquer clairement que les œuvres ont été générées par l’IA.
Récemment, l’Administration chinoise du cyberespace a publié des réglementations exigeant que les fournisseurs d’IA générative marquent le contenu généré – y compris les générateurs de texte et d’images – sans affecter l’utilisation des utilisateurs. Et lors des récentes auditions d’une commission sénatoriale américaine, le sénateur Kyrsten Sinema (I-AZ) a souligné la nécessité de transparence dans l’IA générative, notamment en utilisant des filigranes.
En mai, lors de sa conférence annuelle Build, Microsoft s’est engagé à filigraner les images et vidéos générées par l’IA « à l’aide de méthodes cryptographiques ». Ailleurs, Shutterstock et la startup d’IA générative Midjourney ont adopté des lignes directrices pour intégrer un marqueur indiquant que le contenu a été créé par un outil d’IA générative. Et DALL-E 2 d’OpenAI, un outil de conversion texte-image, insère un petit filigrane en bas à droite des images qu’il génère.
Mais jusqu’à présent, une norme commune en matière de filigrane – à la fois pour créer des filigranes et pour les détecter – s’est révélée insaisissable.
SynthID, comme les autres technologies proposées, ne sera utile pour aucun générateur d’images qui n’est-ce pas Imagen – du moins pas sous sa forme actuelle. DeepMind indique qu’il envisage de rendre SynthID disponible à des tiers dans un avenir proche. Mais que des tiers – en particulier des tiers développant des générateurs d’images d’IA open source, qui manquent de nombreux garde-fous dans les générateurs protégés par une API – adopteront la technologie est une tout autre affaire.