OpenAI ajoute de nouveaux filigranes à DALL-E 3

Le générateur d’images d’OpenAI, DALL-E 3, ajoutera des filigranes aux métadonnées des images à mesure que de plus en plus d’entreprises déploieront la prise en charge des normes de la Coalition for Content Provenance and Authenticity (C2PA).

Le l’entreprise dit les filigranes de C2PA apparaîtront dans les images générées sur le site Web ChatGPT et l’API pour le modèle DALL-E 3. Les utilisateurs mobiles recevront les filigranes d’ici le 12 février. Ils comprendront à la fois un composant de métadonnées invisible et un symbole CR visible, qui apparaîtra dans le coin supérieur gauche de chaque image.

Les gens peuvent vérifier la provenance – quel outil d’IA a été utilisé pour créer le contenu – de toute image générée par les plates-formes OpenAI via des sites Web comme Content Credentials Verify. Jusqu’à présent, seules les images fixes, et non les vidéos ou le texte, peuvent porter le filigrane.

Nouveaux filigranes sur les images DALL-E 3.
Image : OpenAI

OpenAI affirme que l’ajout de métadonnées de filigrane aux images représente un « effet négligeable sur la latence et n’affectera pas la qualité de la génération d’images ». Cela augmentera également légèrement la taille des images pour certaines tâches.

Le C2PA, un groupe composé d’entreprises comme Adobe et Microsoft, a encouragé l’utilisation du filigrane Content Credentials pour identifier la provenance du contenu et montrer s’il a été créé par des humains ou avec l’IA. Adobe a créé un symbole d’informations d’identification de contenu, qu’OpenAI ajoute aux créations DALL-E 3. Meta a récemment annoncé qu’elle ajouterait des balises au contenu généré par l’IA sur ses plateformes de médias sociaux.

L’identification du contenu généré par l’IA est l’une des directives phares du décret de l’administration Biden sur l’IA. Mais le filigrane n’est pas un moyen infaillible de mettre fin à la désinformation. OpenAI souligne que les métadonnées du C2PA peuvent « facilement être supprimées accidentellement ou intentionnellement », d’autant plus que la plupart des plateformes de médias sociaux suppriment souvent les métadonnées du contenu téléchargé. Prendre une capture d’écran omet les métadonnées.

« Nous pensons que l’adoption de ces méthodes pour établir la provenance et encourager les utilisateurs à reconnaître ces signaux est essentielle pour accroître la fiabilité des informations numériques », déclare OpenAI sur son site.

source site-132