Le Conseil de surveillance appelle Meta à réécrire les règles « incohérentes » contre les fausses vidéos

Le Conseil de surveillance, le groupe consultatif externe créé par Meta pour examiner ses décisions de modération sur Facebook et Instagram, a rendu lundi une décision concernant une vidéo falsifiée de sept secondes du président Biden qui a fait le tour des réseaux sociaux l’année dernière.

La vidéo originale montrait le président accompagnant sa petite-fille Natalie Biden pour voter lors du vote anticipé lors des élections de mi-mandat de 2022. Dans la vidéo, le président Biden épingle un autocollant « J’ai voté » sur sa petite-fille et l’embrasse sur la joue.

Une version courte et éditée de la vidéo supprime les preuves visuelles de l’autocollant, plaçant le clip sur une chanson avec des paroles à caractère sexuel et la mettant en boucle pour représenter Biden touchant la jeune femme de manière inappropriée. Le clip de sept secondes a été téléchargé sur Facebook en mai 2023 avec une légende décrivant Biden comme un « pédophile malade ».

Dans sa décision rendue lundi, le Conseil de surveillance approuve le choix de Meta de laisser la vidéo en ligne, mais qualifie la politique pertinente d’« incohérente ». Le comité de surveillance de Meta a annoncé qu’il prendrait en charge l’affaire en octobre dernier après qu’un utilisateur de Facebook ait signalé la vidéo et a finalement intensifié l’affaire lorsque la plateforme a refusé de la supprimer.

« En l’état, cette politique n’a pas beaucoup de sens », a déclaré Michael McConnell, coprésident du Conseil de surveillance. « Il interdit les vidéos modifiées qui montrent des gens disant des choses qu’ils ne disent pas, mais n’interdit pas les publications montrant un individu faisant quelque chose qu’il n’a pas fait. Cela ne s’applique qu’aux vidéos créées via l’IA, mais laisse les autres faux contenus s’en tirer.

McConnell a également souligné l’échec de la politique à lutter contre la manipulation audio, la qualifiant de « l’une des formes les plus puissantes de désinformation électorale ». Bien que la décision du conseil d’administration de maintenir la vidéo en ligne soit techniquement contraignante,

La décision du Conseil de surveillance soutient qu’au lieu de se concentrer sur la manière dont un élément de contenu particulier a été créé, les règles de Meta devraient être guidées par les préjudices qu’elles sont censées prévenir. Tout changement devrait être mis en œuvre « de toute urgence » à la lumière des élections mondiales, selon la décision, mais techniquement, seule la décision du conseil d’administration quant au maintien ou à la suppression du contenu est contraignante.

Meta a créé le Conseil de surveillance en 2020. À cette époque, la société encore connue sous le nom de Facebook avait subi des années d’examen minutieux concernant la prolifération de la désinformation, de l’extrémisme et d’autres contenus dangereux sur ses plateformes. Bien que le conseil d’administration puisse rendre des décisions finales sur les cas individuels de modération de contenu qu’il examine – en supposant que Meta continue d’accepter de les mettre en œuvre – la société s’est seulement engagée à « examiner » des recommandations plus approfondies pour modifier les règles de Facebook et d’Instagram.

Au-delà de l’élargissement de sa politique relative aux médias manipulés, le Conseil de surveillance a suggéré que Meta ajoute des étiquettes aux vidéos modifiées les signalant comme telles au lieu de s’appuyer sur des retraits de contenu initiés par des vérificateurs de faits, un processus que le groupe critique comme « asymétrique en fonction de la langue et du marché ». En étiquetant davantage de contenu plutôt qu’en le supprimant, le Conseil de surveillance estime que Meta peut maximiser la liberté d’expression, atténuer les dommages potentiels et fournir plus de contexte et d’informations aux utilisateurs.

Dans une déclaration à TechCrunch, un porte-parole de Meta a confirmé que la société « examine les orientations du Conseil de surveillance » et publiera une réponse publique dans les 60 jours.

Comme l’a noté le Conseil de surveillance lorsqu’il a accepté l’affaire du « faux bon marché » de Biden, Meta a maintenu sa décision de laisser la vidéo modifiée en ligne parce que sa politique sur les médias manipulés – photos et vidéos modifiées de manière trompeuse – ne s’applique que lorsque l’IA est utilisée ou lorsque le sujet d’une vidéo est montré disant quelque chose qu’ils n’ont pas dit.

La politique relative aux médias manipulés, conçue en pensant aux deepfakes, s’applique uniquement aux « vidéos qui ont été éditées ou synthétisées… d’une manière qui n’est pas apparente pour une personne moyenne et qui serait susceptible d’induire une personne moyenne en erreur ».

Pendant ce temps, la vidéo modifiée continue de circuler sur X, anciennement Twitter. Le mois dernier, un compte X vérifié comptant 267 000 abonnés a partagé le clip avec la légende « Les médias font simplement comme si cela n’arrivait pas ». La vidéo compte plus de 611 000 vues.

La vidéo de Biden n’est pas la première fois que le Conseil de surveillance demande à Meta de retourner à la planche à dessin pour définir ses règles. Lorsque le groupe s’est prononcé sur la décision de Facebook d’interdire l’ancien président Trump, il a dénoncé la nature « vague et sans norme » de la peine d’une durée indéterminée tout en acceptant finalement le choix de suspendre son compte. Le Conseil de surveillance a généralement exhorté Meta à fournir plus de détails, de cohérence et de transparence dans les politiques de sa plateforme, dans tous les cas.

Le Conseil de surveillance est entré en action pour la première fois fin 2020, ratant une opportunité de pertinence lors des élections américaines de cette année-là et suscitant le scepticisme quant à ses liens inévitables avec l’entreprise qu’il a été créé pour auditer. En fin de compte, Meta doit décider si elle écoute ou non le Conseil de surveillance, même si l’entité fonctionne comme un bouclier utile contre les critiques politiques de ses processus de modération de contenu.

Les critiques de l’expérience politique de Meta ont rejeté le comité d’examen auto-conçu comme étant trop peu et beaucoup trop tard.

Meta a peut-être mis en place un système standardisé d’examen de la modération du contenu, mais la désinformation et d’autres contenus dangereux évoluent plus rapidement que ce processus d’appel – et beaucoup plus rapidement que le monde aurait pu l’imaginer il y a à peine deux cycles d’élections générales aux États-Unis.

Les chercheurs et les groupes de surveillance se préparent à une avalanche d’affirmations trompeuses et de contrefaçons générées par l’IA à mesure que la course à la présidentielle de 2024 s’accélère. Mais alors même que les nouvelles technologies permettent de propager des mensonges dangereux, les sociétés de médias sociaux ont discrètement réduit leurs investissements dans la confiance et la sécurité et se sont détournées de ce qui semblait autrefois être un effort concerté pour éradiquer la désinformation.

« Le volume de contenus trompeurs augmente et la qualité des outils permettant de les créer augmente rapidement », a déclaré McConnell.

Source-146