Meta étiquettera le contenu généré par l’IA d’OpenAI et de Google sur Facebook et Instagram

Méta / Getty Images

Mardi, Meta a annoncé son intention de commencer à étiqueter les images générées par l’IA provenant d’autres sociétés comme OpenAI et Google, comme l’a rapporté Reuters. Cette décision vise à améliorer la transparence sur des plateformes telles que Facebook, Instagram et Threads en informant les utilisateurs lorsque le contenu qu’ils voient est un média de synthèse numérique plutôt qu’une photo ou une vidéo authentique.

Intervenant au cours d’une année électorale américaine qui devrait être controversée, la décision de Meta fait partie d’un effort plus large au sein de l’industrie technologique visant à établir des normes d’étiquetage du contenu créé à l’aide de modèles d’IA génératifs, capables de produire du son, des images et des images faux mais réalistes. vidéo à partir d’invites écrites. (Même les faux contenus non générés par l’IA peuvent potentiellement dérouter les utilisateurs des réseaux sociaux, comme nous l’avons évoqué hier.)

Nick Clegg, président des affaires mondiales de Meta, a fait cette annonce dans un article de blog sur le site Web de Meta. « Nous suivrons cette approche au cours de l’année prochaine, au cours de laquelle un certain nombre d’élections importantes auront lieu dans le monde entier », a écrit Clegg. « Pendant cette période, nous espérons en apprendre beaucoup plus sur la manière dont les gens créent et partagent du contenu d’IA, quel type de transparence les gens trouvent le plus précieux et comment ces technologies évoluent. »

Clegg a déclaré que l’initiative de Meta visant à étiqueter le contenu généré par l’IA élargira la pratique actuelle de l’entreprise consistant à étiqueter le contenu généré par ses propres outils d’IA pour inclure des images créées par des services d’autres sociétés.

« Nous développons des outils de pointe capables d’identifier des marqueurs invisibles à grande échelle, en particulier les informations « générées par l’IA » dans les normes techniques C2PA et IPTC, afin de pouvoir étiqueter les images de Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock alors qu’ils mettent en œuvre leurs plans pour ajouter des métadonnées aux images créées par leurs outils.

Meta affirme que la technologie d’étiquetage des étiquettes de contenu générées par l’IA s’appuiera sur des filigranes invisibles et des métadonnées intégrées dans les fichiers. Meta ajoute un petit filigrane « Imaginé avec l’IA » aux images créées avec son générateur d’images public AI.

Dans son message, Clegg a exprimé sa confiance dans la capacité des entreprises à étiqueter de manière fiable les images générées par l’IA, tout en notant que les outils de marquage du contenu audio et vidéo sont encore en cours de développement. En attendant, Meta exigera des utilisateurs qu’ils étiquetent leur contenu audio et vidéo modifié, avec des sanctions non précisées en cas de non-conformité.

« Nous exigerons que les gens utilisent cet outil de divulgation et d’étiquetage lorsqu’ils publient du contenu organique avec une vidéo photoréaliste ou un audio réaliste créé ou modifié numériquement, et nous pourrons leur appliquer des sanctions s’ils ne le font pas », a-t-il écrit.

Cependant, Clegg a mentionné qu’il n’existe actuellement aucun moyen efficace d’étiqueter le texte généré par l’IA, ce qui suggère qu’il est trop tard pour que de telles mesures soient mises en œuvre pour le contenu écrit. Ceci est conforme à notre rapport selon lequel les détecteurs d’IA pour le texte ne fonctionnent pas.

Cette annonce intervient un jour après que le conseil de surveillance indépendant de Meta a critiqué la politique de l’entreprise concernant les vidéos modifiées de manière trompeuse, la qualifiant de trop étroite, recommandant que ce type de contenu soit étiqueté plutôt que supprimé. Clegg était d’accord avec la critique, reconnaissant que les politiques existantes de Meta sont inadéquates pour gérer le volume croissant de contenu synthétique et hybride en ligne. Il considère la nouvelle initiative d’étiquetage comme une étape vers la mise en œuvre des recommandations du conseil de surveillance et la promotion de mesures similaires à l’échelle de l’industrie.

Meta admet qu’il ne sera pas en mesure de détecter le contenu généré par l’IA qui a été créé sans filigrane ni métadonnées, comme les images créées avec certains outils de synthèse d’images IA open source. Meta recherche une technologie de filigrane d’image appelée Stable Signature qui, espère-t-elle, pourra être intégrée dans des générateurs d’images open source. Mais tant que les pixels restent des pixels, ils peuvent être créés à l’aide de méthodes indépendantes du contrôle de l’industrie technologique, ce qui reste un défi pour la détection du contenu de l’IA, à mesure que les outils d’IA open source deviennent de plus en plus sophistiqués et réalistes.

Source-147