Meta a annoncé des modifications à ses règles sur le contenu généré par l’IA et les médias manipulés suite aux critiques de son conseil de surveillance. À partir du mois prochain, a annoncé la société, elle étiquetera un plus large éventail de contenus de ce type, notamment en appliquant un badge « Fabriqué avec l’IA » aux deepfakes. Des informations contextuelles supplémentaires peuvent être affichées lorsque le contenu a été manipulé d’autres manières qui présentent un risque élevé de tromper le public sur une question importante.
Cette décision pourrait conduire le géant des réseaux sociaux à étiqueter davantage de contenus susceptibles d’être trompeurs – ce qui est important au cours d’une année marquée par de nombreuses élections dans le monde. Cependant, pour les deepfakes, Meta n’appliquera des étiquettes que lorsque le contenu en question comporte des « indicateurs d’image IA conformes aux normes de l’industrie » ou lorsque le téléchargeur a divulgué son contenu généré par l’IA.
Le contenu généré par l’IA qui se situe en dehors de ces limites échappera probablement sans étiquette.
Le changement de politique est également susceptible de conduire à ce qu’un plus grand nombre de contenus générés par l’IA et de médias manipulés restent sur les plateformes de Meta, car il évolue vers une approche axée sur « la fourniture de transparence et de contexte supplémentaire », comme « la meilleure façon de traiter ce contenu » ( plutôt que de supprimer les médias manipulés, étant donné les risques associés à la liberté d’expression).
Ainsi, pour les médias générés par l’IA ou autrement manipulés sur les plateformes Meta comme Facebook et Instagram, la stratégie semble être la suivante : plus d’étiquettes, moins de retraits.
Meta a déclaré qu’elle cesserait de supprimer du contenu uniquement sur la base de sa politique actuelle en matière de vidéos manipulées en juillet, ajoutant dans un article de blog publié vendredi que : « Cette chronologie donne aux gens le temps de comprendre le processus d’auto-divulgation avant d’arrêter de supprimer le plus petit sous-ensemble de contenus. médias manipulés. »
Ce changement d’approche pourrait viser à répondre aux exigences juridiques croissantes imposées à Meta concernant la modération du contenu et le risque systémique, comme la loi sur les services numériques de l’Union européenne. Depuis août dernier, la loi européenne a appliqué un ensemble de règles à ses deux principaux réseaux sociaux qui obligent Meta à trouver un équilibre entre la suppression des contenus illégaux, l’atténuation des risques systémiques et la protection de la liberté d’expression. Le bloc exerce également une pression supplémentaire sur les plateformes avant les élections au Parlement européen de juin prochain, notamment en exhortant les géants de la technologie à filigraner les deepfakes lorsque cela est techniquement possible.
L’élection présidentielle américaine de novembre prochain est également une préoccupation majeure de Meta.
Critiques du Conseil de surveillance
Le conseil consultatif de Meta, que le géant de la technologie finance mais permet de fonctionner de manière indépendante, examine un infime pourcentage de ses décisions en matière de modération de contenu, mais peut également formuler des recommandations politiques. Meta n’est pas tenue d’accepter les suggestions du Conseil, mais dans ce cas, elle a accepté de modifier son approche.
Dans un article de blog publié vendredi, Monika Bickert, vice-présidente de la politique de contenu de Meta, a déclaré qu’elle modifiait ses politiques sur le contenu généré par l’IA et les médias manipulés sur la base des commentaires du conseil d’administration. « Nous sommes d’accord avec l’argument du Conseil de surveillance selon lequel notre approche actuelle est trop étroite puisqu’elle ne couvre que les vidéos créées ou modifiées par l’IA pour donner l’impression qu’une personne dit quelque chose qu’elle n’a pas dit », a-t-elle écrit.
En février dernier, le Conseil de surveillance a exhorté Meta à repenser son approche du contenu généré par l’IA après s’attaquant au cas d’une vidéo falsifiée du président Biden qui avait été montée pour impliquer un mobile sexuel dans un baiser platonique qu’il avait donné à sa petite-fille.
Tandis que le Le conseil d’administration a approuvé la décision de Meta de laisser le contenu spécifique en ligne et a attaqué sa politique sur les médias manipulés comme étant « incohérente » – soulignant, par exemple, qu’elle ne faisait que s’applique à la vidéo créée via l’IA, permettant ainsi à d’autres faux contenus (tels que des vidéos ou des fichiers audio plus fondamentalement falsifiés) de s’en tirer.
Meta semble avoir pris en compte les commentaires critiques.
« Au cours des quatre dernières années, et particulièrement l’année dernière, les gens ont développé d’autres types de contenus réalistes générés par l’IA, comme l’audio et les photos, et cette technologie évolue rapidement », a écrit Bickert. « Comme l’a souligné le Conseil, il est tout aussi important de s’attaquer à la manipulation qui montre qu’une personne fait quelque chose qu’elle n’a pas fait.
« Le Conseil a également fait valoir que nous risquons inutilement de restreindre la liberté d’expression lorsque nous supprimons des médias manipulés qui ne violent pas autrement nos normes communautaires. Il recommande une approche « moins restrictive » des médias manipulés, comme les étiquettes contextuelles.
Plus tôt cette année, Meta a annoncé qu’elle travaillait avec d’autres acteurs du secteur pour développer des normes techniques communes pour identifier le contenu de l’IA, y compris la vidéo et l’audio. Il s’appuie désormais sur cet effort pour étendre l’étiquetage des supports synthétiques.
« Nos étiquettes » Fabriqué avec l’IA « sur la vidéo, l’audio et les images générées par l’IA seront basées sur notre détection de signaux partagés par l’industrie d’images d’IA ou sur des personnes révélant elles-mêmes qu’elles téléchargent du contenu généré par l’IA », a déclaré Bickert, notant que la société applique déjà les étiquettes « Imaginé avec l’IA » aux images photoréalistes créées à l’aide de sa propre fonctionnalité Meta AI.
La politique élargie couvrira « une gamme plus large de contenus en plus du contenu manipulé que le Conseil de surveillance a recommandé d’étiqueter », selon Bickert.
« Si nous déterminons que les images, vidéos ou audio créés ou modifiés numériquement créent un risque particulièrement élevé de tromperie matériellement le public sur une question importante, nous pouvons ajouter une étiquette plus visible afin que les gens aient plus d’informations et de contexte », a-t-elle écrit. « Cette approche globale donne aux gens plus d’informations sur le contenu afin qu’ils puissent mieux l’évaluer et ainsi avoir un contexte s’ils voient le même contenu ailleurs. »
Meta a déclaré qu’il ne supprimerait pas le contenu manipulé – qu’il soit basé sur l’IA ou autrement trafiqué – sauf si cela viole d’autres politiques (telles que l’ingérence des électeurs, l’intimidation et le harcèlement, la violence et l’incitation, ou d’autres problèmes liés aux normes communautaires). Au lieu de cela, comme indiqué ci-dessus, il peut ajouter « des étiquettes informatives et un contexte » dans certains scénarios présentant un grand intérêt public.
Le billet de blog de Meta met en avant un réseau de près de 100 vérificateurs de faits indépendants avec lequel il affirme collaborer pour aider à identifier les risques liés aux contenus manipulés.
Ces entités externes continueront d’examiner le contenu faux et trompeur généré par l’IA, selon Meta. Lorsqu’ils évaluent le contenu comme « faux ou modifié », Meta a déclaré qu’il répondrait en appliquant des changements d’algorithme qui réduisent la portée du contenu – ce qui signifie que les éléments apparaîtront plus bas dans les flux afin que moins de personnes les voient, en plus de Meta apposant une étiquette superposée avec des informations supplémentaires pour ces globes oculaires qui atterrissent dessus.
Ces vérificateurs de faits tiers semblent devoir faire face à une charge de travail croissante à mesure que les contenus synthétiques prolifèrent, entraînés par l’essor des outils d’IA générative. Et parce que davantage de ces éléments devraient rester sur les plateformes de Meta à la suite de ce changement de politique.