Meta prévoit d’intensifier son étiquetage des images générées par l’IA sur Facebook, Instagram et Threads pour indiquer clairement que les visuels sont artificiels. Cela fait partie d’un effort plus large visant à réprimer la désinformation et la désinformation, ce qui est particulièrement important alors que nous sommes aux prises avec les ramifications de l’IA générative (GAI) au cours d’une année électorale majeure aux États-Unis et dans d’autres pays.
Selon Nick Clegg, président des affaires mondiales de Meta, la société a travaillé avec des partenaires de tout le secteur pour développer des normes incluant des signifiants qu’une image, une vidéo ou un clip audio a été généré à l’aide de l’IA. « Être capable de détecter ces signaux nous permettra d’étiqueter les images générées par l’IA que les utilisateurs publient sur Facebook, Instagram et Threads », a écrit Clegg dans un article de Meta Newsroom. « Nous développons cette fonctionnalité maintenant et, dans les mois à venir, nous commencerons à appliquer des étiquettes dans toutes les langues prises en charge par chaque application. » Clegg a ajouté qu’en développant ces capacités au cours de l’année prochaine, Meta espère en apprendre davantage sur « la façon dont les gens créent et partagent du contenu d’IA, quel type de transparence les gens trouvent le plus précieux et comment ces technologies évoluent ». Ceux-ci contribueront à éclairer à la fois les meilleures pratiques de l’industrie et les propres politiques de Meta, a-t-il écrit.
Meta affirme que les outils sur lesquels il travaille seront capables de détecter à grande échelle les signaux invisibles, à savoir les informations générées par l’IA qui correspondent aux normes techniques C2PA et IPTC. En tant que tel, il espère pouvoir identifier et étiqueter les images de Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock, qui intègrent tous des métadonnées GAI dans les images créées par leurs produits.
En ce qui concerne la vidéo et l’audio GAI, Clegg souligne que les entreprises du secteur n’ont pas commencé à intégrer des signaux invisibles dans ceux à la même échelle que celles des images. En tant que tel, Meta n’est pas encore capable de détecter la vidéo et l’audio générés par des outils d’IA tiers. En attendant, Meta attend des utilisateurs qu’ils étiquettent eux-mêmes ce contenu.
« Alors que l’industrie travaille à cette fonctionnalité, nous ajoutons une fonctionnalité permettant aux utilisateurs de divulguer lorsqu’ils partagent une vidéo ou un audio généré par l’IA afin que nous puissions y ajouter une étiquette », a écrit Clegg. « Nous exigerons que les gens utilisent cet outil de divulgation et d’étiquetage lorsqu’ils publient du contenu organique avec une vidéo photoréaliste ou un audio réaliste qui a été créé ou modifié numériquement, et nous pourrons leur appliquer des sanctions s’ils ne le font pas. Si nous déterminons que Le contenu image, vidéo ou audio créé ou modifié numériquement crée un risque particulièrement élevé de tromper matériellement le public sur une question importante, nous pouvons ajouter une étiquette plus visible si nécessaire, afin que les gens aient plus d’informations et de contexte.
Cela dit, obliger les utilisateurs à ajouter des informations et des étiquettes à la vidéo et à l’audio générés par l’IA semble être un échec. Beaucoup de ces personnes tenteront intentionnellement de tromper les autres. En plus de cela, d’autres ne s’en soucieront probablement pas ou ne seront pas au courant des politiques de GAI.
De plus, Meta cherche à rendre plus difficile la modification ou la suppression des marqueurs invisibles du contenu GAI. Le laboratoire de recherche FAIR AI de la société a développé une technologie qui « intègre le mécanisme de filigrane directement dans le processus de génération d’images pour certains types de générateurs d’images, ce qui pourrait être utile pour les modèles open source afin que le filigrane ne puisse pas être désactivé », a écrit Clegg. Meta travaille également sur des moyens de détecter automatiquement le matériel généré par l’IA qui ne comporte pas de marqueurs invisibles.
Meta prévoit de continuer à collaborer avec les partenaires industriels et de « rester en dialogue avec les gouvernements et la société civile » à mesure que le GAI devient plus répandu. Il estime que c’est la bonne approche pour gérer le contenu partagé sur Facebook, Instagram et Threads pour le moment, même s’il ajustera les choses si nécessaire.
L’un des principaux problèmes de l’approche de Meta – du moins pendant qu’elle travaille sur des moyens de détecter automatiquement le contenu GAI qui n’utilise pas les marqueurs invisibles standard de l’industrie – est qu’elle nécessite l’adhésion des partenaires. Par exemple, C2PA dispose d’une méthode d’authentification de type grand livre. Pour que cela fonctionne, les outils utilisés pour créer des images et les plateformes sur lesquelles elles sont hébergées doivent adhérer au C2PA.
Meta a partagé la mise à jour de son approche en matière d’étiquetage du contenu généré par l’IA quelques jours seulement après que le PDG Mark Zuckerberg ait éclairé davantage les projets de son entreprise visant à développer l’intelligence artificielle générale. Il a noté que les données de formation constituent l’un des principaux avantages de Meta. La société estime que les photos et vidéos partagées sur Facebook et Instagram constituent un ensemble de données supérieur au Common Crawl. Il s’agit d’un ensemble de données de quelque 250 milliards de pages Web qui ont été utilisées pour entraîner d’autres modèles d’IA. Meta pourra exploiter les deux et n’aura pas besoin de partager les données qu’il a aspirées via Facebook et Instagram avec quelqu’un d’autre.
L’engagement d’étiqueter plus largement le contenu généré par l’IA intervient également un jour seulement après que le conseil de surveillance de Meta a déterminé qu’une vidéo éditée de manière trompeuse pour suggérer que le président Joe Biden touchait à plusieurs reprises la poitrine de sa petite-fille pouvait rester sur les plateformes de l’entreprise. En fait, Biden a simplement placé un autocollant « J’ai voté » sur sa chemise après avoir voté en personne pour la première fois. Le conseil d’administration a déterminé que la vidéo était autorisée en vertu des règles de Meta sur les médias manipulés, mais il a exhorté l’entreprise à mettre à jour ces directives communautaires.