Le groupe consultatif examinant les décisions de modération de contenu de Facebook et Instagram a publié mercredi son premier rapport annuel, clôturant sa première année de fonctionnement.
Le conseil de surveillance a apparemment reçu plus d’un million d’appels d’utilisateurs de Facebook et d’Instagram en 2021. La plupart de ces demandes demandaient au conseil d’annuler le contenu des applications Meta qui avaient été supprimées pour avoir enfreint les règles contre les discours de haine, la violence et l’intimidation. Le conseil a rendu des décisions et des explications sur 20 cas qu’il qualifie de «significatifs». Dans 70 % des cas examinés par le groupe, il a annulé la décision initiale de Meta.
« Il y avait clairement une énorme demande refoulée parmi les utilisateurs de Facebook et d’Instagram pour un moyen de faire appel des décisions de modération de contenu prises par Meta, auprès d’une organisation indépendante de Meta », écrit le conseil dans le rapport.
La décision la plus importante du Conseil de surveillance à ce jour est la question de la réintégration de l’ancien président Donald Trump, qui a été retiré de Facebook après avoir encouragé l’insurrection au Capitole américain. Le conseil d’administration a répondu à cette décision en demandant à Meta de clarifier les règles qu’il a utilisées pour expulser l’ancien président de la plate-forme pour commencer. « En appliquant cette sanction, Facebook n’a pas suivi une procédure claire et publiée », a écrit le conseil à l’époque, ajoutant que Facebook n’avait pas de règle pour les suspensions « indéfinies » comme celle émise à Trump.
Au-delà de ses décisions, qui créent une sorte de précédent pour l’application future de la politique, le conseil d’administration fait également des recommandations plus générales à Meta sur la manière dont l’entreprise devrait réfléchir à des aspects particuliers de la modération du contenu et des règles qu’elle devrait mettre en place.
Dans des cas moins médiatisés, le conseil a recommandé à Meta de resserrer les règles de Facebook et d’Instagram contre le doxing, a demandé à l’entreprise de publier un rapport transparent précisant dans quelle mesure elle a appliqué les règles liées au COVID-19 et lui a demandé de donner la priorité à la vérification des faits pour gouvernements qui partagent des informations erronées sur la santé par les voies officielles.
Le Conseil de surveillance a formulé 86 recommandations politiques au cours de sa première année. Meta a mis en œuvre quelques-unes des suggestions du conseil d’administration pour une meilleure transparence de la modération, notamment en donnant aux utilisateurs plus d’informations lorsqu’ils enfreignent les règles du discours de haine de la plate-forme et en les informant si l’IA ou la modération humaine a conduit à une décision d’application et a ignoré les autres. Ces résultats sont suivis dans le rapport annuel, qui met en lumière l’efficacité réelle de l’impact du groupe et la fréquence à laquelle Meta met en œuvre ou passe sous silence ses recommandations.
Le comité de surveillance examine les cas de modération de contenu du monde entier, triant parfois les nuances linguistiques et culturelles que Meta lui-même n’a pas réussi à intégrer dans ses décisions de modération, automatisées ou non. La dénonciatrice de Facebook, Frances Haugen, a à plusieurs reprises sonné l’alarme quant à la capacité de l’entreprise à surveiller ses plateformes sociales sur les marchés non anglophones. Selon le rapport, la moitié des décisions du Conseil de surveillance concernaient des pays du Sud, dont certains d’Amérique latine et d’Afrique.
Initialement, le conseil n’examinait que les cas dans lesquels les utilisateurs demandaient que le contenu soit restauré sur Instagram et Facebook, mais le groupe s’est étendu à l’examen des cas demandant que le contenu soit supprimé quelques mois plus tard. Pourtant, le domaine de prise de décision du Conseil de surveillance est limité à des questions sur les publications individuelles et non sur les nombreuses autres fonctionnalités que les gens utilisent sur Instagram et Facebook.
Le conseil d’administration écrit qu’il souhaite étendre la portée de ses pouvoirs pour conseiller Meta sur la modération affectant les comptes et les groupes sur ses plates-formes, et pas seulement sur les publications individuelles. Le conseil de surveillance est actuellement « en dialogue » avec l’entreprise, qui a toujours le dernier mot sur ce que le groupe consultatif semi-indépendant peut réellement faire.