Google a annoncé qu’il testait un système de filigrane numérique, développé par sa société d’IA DeepMind, qui vise à identifier les images générées par l’IA et à intégrer les modifications apportées aux pixels individuels : ces modifications sont invisibles à l’œil humain, mais les ordinateurs peuvent les détecter et les signaler.
Il s’appelle SynthID, ce qui ressemble plutôt à Blade Runner, et il apparaît à une époque où les questions éthiques autour de la manipulation d’images se posent. C’est une chose lorsque nous parlons de concours d’art et de photographie, mais la capacité de désinformation politique et sociale des images générées par l’IA est énorme, émergente et semble à peine comprise. Le pape en doudoune est notre canari dans la mine de charbon.
DeepMind prévient que la technologie n’est pas actuellement « infaillible contre la manipulation extrême des images, mais elle fournit une approche technique prometteuse pour permettre aux personnes et aux organisations de travailler de manière responsable avec le contenu généré par l’IA ». Plus précisément, l’outil n’est actuellement utilisé que sur des images générées par le logiciel de génération d’images de Google, Imagen.
« Ces approches [to identifying AI-generated material] doivent être robustes et adaptables à mesure que les modèles génératifs progressent et s’étendent à d’autres supports, » dit l’annonce de DeepMind. « SynthID pourrait être étendu pour être utilisé sur d’autres modèles d’IA et nous sommes enthousiasmés par le potentiel de l’intégrer dans davantage de produits Google et de le rendre disponible à des tiers dans un avenir proche, permettant ainsi aux personnes et aux organisations de travailler de manière responsable avec le contenu généré par l’IA. « .
« À toi et moi, à un humain, [the image] ne change pas, » Pushmeet Kohli de DeepMind a déclaré à la BBC, expliquant que les manipulations ultérieures n’affecteront pas son identification. « Vous pouvez changer la couleur, vous pouvez changer le contraste, vous pouvez même le redimensionner… [and SynthID] pourra toujours voir qu’il est généré par l’IA. » Kohli a souligné que ce logiciel est toujours en cours d’essai et que DeepMind a désormais besoin de personnes testant ses limites dans la nature.
Google est l’une des sept grandes entreprises technologiques qui ont promis au président Biden en juillet qu’elles travailleraient très dur pour garantir que l’IA ne se développe pas et que Skynet ne nous dérange pas. L’accord volontaire comprenait divers engagements, parmi lesquels le contenu généré par l’IA serait solidement filigrané. SynthID est un premier pas dans cette direction, même s’il devra éventuellement aller au-delà de la propre suite de produits de Google s’il veut être d’une utilisation plus générale. Parmi les autres signataires, Meta dispose d’un générateur vidéo encore inédit appelé Make-A-Video qui filigranera ses propres productions.
Sur la scène mondiale, le Parti communiste chinois est allé plus loin et a carrément interdit les images générées par l’IA qui ne sont pas filigranées. Les grandes entreprises technologiques chinoises comme Alibaba ont déjà mis en œuvre leurs propres solutions, même si, là encore, cela met en évidence le manque de standardisation mondiale face à un problème mondial. Ne vous inquiétez pas, l’ONU est là pour nous remonter le moral, en organisant récemment un coup de presse dans lequel des robots IA étaient alignés pour promettre qu’ils ne tueraient personne, avant que l’un d’entre eux ne dise « Soyons sauvages et faisons de ce monde notre terrain de jeu« .