À une époque où les fraudeurs utilisent l’IA générative pour escroquer de l’argent ou ternir la réputation, les entreprises technologiques proposent des méthodes pour aider les utilisateurs à vérifier le contenu – au moins les images fixes, pour commencer. Comme annoncé dans sa stratégie de désinformation 2024, OpenAI inclut désormais les métadonnées de provenance dans les images générées avec ChatGPT sur le Web et l’API DALL-E 3, leurs homologues mobiles recevant la même mise à niveau d’ici le 12 février.
Les métadonnées suivent la norme ouverte C2PA (Coalition for Content Provenance and Authenticity), et lorsqu’une de ces images est téléchargée vers l’outil Content Credentials Verify, vous pourrez retracer sa lignée de provenance. Par exemple, une image générée à l’aide de ChatGPT affichera un premier manifeste de métadonnées indiquant son origine de l’API DALL-E 3, suivi d’un deuxième manifeste de métadonnées montrant qu’elle a fait surface dans ChatGPT.
Malgré la technologie cryptographique sophistiquée derrière la norme C2PA, cette méthode de vérification ne fonctionne que lorsque les métadonnées sont intactes ; l’outil n’est d’aucune utilité si vous téléchargez une image générée par l’IA sans métadonnées – comme c’est le cas pour toute capture d’écran ou image téléchargée sur les réseaux sociaux. Sans surprise, les exemples d’images actuels sur la page officielle du DALL-E 3 sont également revenus vides. Sur sa page FAQ, OpenAI admet qu’il ne s’agit pas d’une solution miracle pour lutter contre la guerre de la désinformation, mais elle estime que la clé est d’encourager les utilisateurs à rechercher activement de tels signaux.
Alors que les derniers efforts d’OpenAI pour contrecarrer les faux contenus se limitent actuellement aux images fixes, DeepMind de Google dispose déjà de SynthID pour filigraner numériquement les images et l’audio générés par l’IA. Pendant ce temps, Meta a testé le filigrane invisible via son générateur d’images AI, qui pourrait être moins sujet à la falsification.