Le Meta Oversight Board demande une refonte de la modération des vérifications croisées

Le conseil de surveillance de Meta a a publié un rapport détaillé sur le système controversé de contre-vérification de Facebook et Instagram, appelant Meta à rendre le programme « radicalement » plus transparent et à renforcer ses ressources.

Le Conseil de surveillance semi-indépendant a cité « plusieurs lacunes » dans la vérification croisée, qui fournit une file d’attente de modération spéciale pour les personnalités publiques de haut niveau, y compris l’ancien président Donald Trump avant sa suspension de Facebook. Il a mis en évidence le fait de ne pas préciser quand les comptes sont protégés par un statut spécial de contre-vérification, ainsi que les cas où du matériel enfreignant les règles – en particulier un cas de pornographie non consensuelle – a été laissé pendant une période prolongée. Et il a critiqué Meta pour ne pas suivre les statistiques de modération qui pourraient évaluer l’exactitude des résultats du programme.

« Alors que Meta a déclaré au conseil d’administration que la contre-vérification vise à faire progresser les engagements de Meta en matière de droits de l’homme, nous avons constaté que le programme semble plus directement structuré pour répondre aux préoccupations des entreprises », indique le rapport. « Le conseil comprend que Meta est une entreprise, mais en offrant une protection supplémentaire à certains utilisateurs sélectionnés en grande partie en fonction des intérêts commerciaux, la contre-vérification permet au contenu qui serait autrement supprimé rapidement de rester actif plus longtemps, ce qui pourrait causer des dommages. »

« Cela protégeait un nombre limité de personnes qui ne savaient même pas qu’elles figuraient sur la liste. »

Le rapport arrive plus d’un an après Le journal de Wall Street révélé détails sur la contre-vérification publiquement. Suite à ses révélations, Meta a demandé au conseil de surveillance d’évaluer le programme, mais le conseil s’est plaint que Meta n’avait pas fourni d’informations importantes à ce sujet, comme des détails sur son rôle dans la modération des messages de Trump. L’annonce d’aujourd’hui fait apparemment suite à des mois de va-et-vient entre Meta et le Conseil de surveillance, y compris l’examen de « milliers » de pages de documents internes, quatre briefings de l’entreprise et une demande de réponses à 74 questions. Le document résultant comprend des diagrammes, des statistiques et des déclarations de Meta qui aident à éclairer la façon dont il a organisé un programme de révision à plusieurs niveaux.

« C’est une petite partie de ce que Meta fait, mais je pense qu’en passant autant de temps et en examinant cela [much] détail, cela a révélé quelque chose qui est un peu plus systémique au sein de l’entreprise », a déclaré Alan Rusbridger, membre du conseil de surveillance. Le bord. «Je crois sincèrement qu’il y a beaucoup de gens chez Meta qui croient aux valeurs de la liberté d’expression et aux valeurs de protection du journalisme et de protection des personnes travaillant dans la société civile. Mais le programme qu’ils avaient conçu ne faisait pas ces choses. Il protégeait un nombre limité de personnes qui ne savaient même pas qu’elles figuraient sur la liste.

La vérification croisée est conçue pour empêcher les retraits inappropriés de messages d’un sous-ensemble d’utilisateurs, en envoyant ces décisions via un ensemble d’examens humains au lieu du processus de modération normal basé sur l’IA. Ses membres (qui, comme le note Rusbringer, ne sont pas informés qu’ils sont protégés) comprennent des journalistes couvrant les zones de conflit et des dirigeants civiques dont les déclarations sont particulièrement dignes d’intérêt. Il couvre également les « partenaires commerciaux » qui incluent les éditeurs, les artistes, les entreprises et les organisations caritatives.

Selon les déclarations de Meta citées dans le rapport, le programme favorise une sous-application des règles de l’entreprise pour éviter une « perception de censure » ou une mauvaise expérience pour les personnes qui rapportent beaucoup d’argent et les utilisateurs de Facebook et Instagram. Meta indique qu’en moyenne, il peut prendre plus de cinq jours pour passer un appel sur un élément de contenu. Un backlog de modération retarde parfois encore plus les décisions – au plus longtemps, un élément de contenu est resté dans la file d’attente pendant plus de sept mois.

Le Conseil de surveillance a fréquemment critiqué Meta pour avoir supprimé avec excès de zèle des messages, en particulier ceux à expression politique ou artistique. Mais dans ce cas, il s’est dit préoccupé par le fait que Meta permettait à ses partenariats commerciaux d’éclipser les dommages réels. Un backlog de contre-vérification, par exemple, retardé une décision Lorsque le footballeur brésilien Neymar a publié des photos nues d’une femme qui l’accusait de viol – et après le message, qui était une violation claire des règles de Meta, Neymar n’a pas subi la sanction typique de la suppression de son compte. Le conseil note que Neymar a signé plus tard un accord de streaming exclusif avec Meta.

Inversement, une partie du problème est que les utilisateurs ordinaires ne le faites pas obtenez la même modération pratique, grâce à l’échelle massive de Facebook et d’Instagram. Meta a déclaré au Conseil de surveillance qu’en octobre 2021, il effectuait chaque jour 100 millions d’actions d’application de la loi sur le contenu. Beaucoup de ces décisions sont automatisées ou soumises à un examen humain très superficiel, car il s’agit d’un vaste volume qu’il serait difficile, voire impossible, de coordonner dans un système de modération purement humain. Mais le conseil dit qu’il n’est pas clair que Meta suive ou tente d’analyser l’exactitude du système de vérification croisée par rapport à la modération de contenu ordinaire. Si c’était le cas, les résultats pourraient indiquer qu’un grand nombre de contenus d’utilisateurs ordinaires étaient probablement signalés à tort comme violant les règles, ou que Meta n’appliquait pas suffisamment ses politiques pour les utilisateurs de haut niveau.

« J’espère que Meta tiendra son sang-froid. »

Le conseil a fait 32 recommandations à Meta. (Comme d’habitude, Meta doit répondre aux recommandations dans les 60 jours mais n’est pas tenu de les adopter.) Les recommandations incluent le masquage des messages marqués comme des violations de « gravité élevée » pendant qu’un examen est en cours, même lorsqu’ils sont publiés par des entreprises. les partenaires. Le conseil d’administration demande à Meta de donner la priorité à l’amélioration de la modération du contenu pour «l’expression importante pour les droits de l’homme», en adoptant une file d’attente spéciale pour ce contenu qui est distincte des partenaires commerciaux de Meta. Il demande à Meta d’établir des « critères clairs et publics » pour savoir qui est inclus sur les listes de vérification croisée – et dans certains cas, comme les acteurs étatiques et les partenaires commerciaux, de marquer publiquement ce statut.

Certaines de ces recommandations, comme le marquage public des comptes, sont des décisions politiques qui ne nécessiteraient probablement pas de ressources supplémentaires importantes. Mais Rusbridger reconnaît que d’autres – comme l’élimination de l’arriéré pour la contre-vérification – nécessiteraient une expansion « substantielle » de la force de modération de Meta. Et le rapport arrive au milieu d’une période d’austérité pour Meta ; le mois dernier, l’entreprise a licencié environ 13% de ses effectifs.

Rusbridger exprime l’espoir que Meta accordera toujours la priorité à la modération de contenu aux côtés de programmes techniques « plus durs », même s’il se serre la ceinture. « J’espère que Meta tiendra son sang-froid », dit-il. « Aussi tentant qu’il soit de couper en quelque sorte les zones » douces « , je pense qu’à long terme, ils doivent réaliser que ce n’est pas une chose très sage à faire. »

source site-132