Alors que les États-Unis s’orientent vers la criminalisation des deepfakes – des fichiers audio, images et vidéos trompeurs générés par l’IA qui sont de plus en plus difficiles à distinguer du contenu authentique en ligne – les entreprises technologiques se sont précipitées pour déployer des outils pour aider chacun à mieux détecter le contenu de l’IA.
Mais les efforts jusqu’à présent ont été imparfaits, et les experts craignent que les plateformes de médias sociaux ne soient pas prêtes à gérer le chaos de l’IA qui s’ensuivra lors des grandes élections mondiales de 2024, malgré l’engagement des géants de la technologie à créer des outils spécifiquement pour lutter contre la désinformation électorale alimentée par l’IA. La meilleure détection par l’IA reste les humains observateurs, qui, en prêtant une attention particulière aux deepfakes, peuvent détecter des défauts comme les personnes générées par l’IA avec des doigts supplémentaires ou les voix de l’IA qui parlent sans s’arrêter pour respirer.
Parmi les outils les plus spectaculaires annoncés cette semaine, OpenAI a partagé aujourd’hui des détails sur un nouveau classificateur de détection d’images d’IA qui, selon lui, peut détecter environ 98 % des sorties d’IA de son propre générateur d’images sophistiqué, DALL-E 3. Il « signale également actuellement environ 5 à 10 % des images générées par d’autres modèles d’IA », indique le blog d’OpenAI.
Selon OpenAI, le classificateur fournit une réponse binaire « vrai/faux » « indiquant la probabilité que l’image soit générée par l’IA par DALL·E 3 ». Une capture d’écran de l’outil montre comment il peut également être utilisé pour afficher un résumé de contenu simple confirmant que « ce contenu a été généré avec un outil d’IA » et comprend des champs signalant idéalement « l’application ou l’appareil » et l’outil d’IA utilisé.
Pour développer l’outil, OpenAI a passé des mois à ajouter des métadonnées inviolables à « toutes les images créées et éditées par DALL·E 3 » qui « peuvent être utilisées pour prouver que le contenu provient » d’« une source particulière ». Le détecteur lit ces métadonnées pour signaler avec précision les images DALL-E 3 comme fausses.
Ces métadonnées suivent « une norme largement utilisée pour la certification du contenu numérique » établie par la Coalition pour la provenance et l’authenticité du contenu (C2PA), souvent comparée à une étiquette nutritionnelle. Et le renforcement de cette norme est devenu « un aspect important » de l’approche d’OpenAI en matière de détection de l’IA au-delà du DALL-E 3, a déclaré OpenAI. Lorsqu’OpenAI lancera largement son générateur vidéo, Sora, les métadonnées C2PA seront également intégrées à cet outil, a déclaré OpenAI.
Bien entendu, cette solution n’est pas exhaustive car ces métadonnées peuvent toujours être supprimées, et « les gens peuvent toujours créer du contenu trompeur sans ces informations (ou les supprimer) », a déclaré OpenAI, « mais ils ne peuvent pas facilement falsifier ou modifier ces informations, ce qui rend c’est une ressource importante pour instaurer la confiance.
Parce qu’OpenAI s’investit pleinement dans le C2PA, le leader de l’IA a annoncé aujourd’hui qu’il rejoindrait le comité directeur du C2PA pour contribuer à une adoption plus large de la norme. OpenAI lancera également un fonds de 2 millions de dollars avec Microsoft pour soutenir une « éducation et une compréhension plus large de l’IA », apparemment en partie dans l’espoir que plus les gens comprendront l’importance de la détection de l’IA, moins ils seront susceptibles de supprimer ces métadonnées.
« À mesure que l’adoption de la norme augmente, ces informations peuvent accompagner le contenu tout au long de son cycle de vie de partage, de modification et de réutilisation », a déclaré OpenAI. « Au fil du temps, nous pensons que ce type de métadonnées deviendra quelque chose auquel les gens s’attendront, comblant ainsi une lacune cruciale dans les pratiques d’authenticité du contenu numérique. »
L’adhésion d’OpenAI au comité « marque une étape importante pour le C2PA et contribuera à faire avancer la mission de la coalition visant à accroître la transparence autour des médias numériques à mesure que le contenu généré par l’IA devient plus répandu », a déclaré le C2PA sur un blog.