« Déterrez tous les rats qui ont pris le pouvoir et abattez-les », lit-on dans une annonce approuvée par Facebook quelques jours seulement après qu’une foule a violemment pris d’assaut les bâtiments gouvernementaux de la capitale brésilienne.
Cette violence a été alimentée par de fausses allégations d’ingérence électorale, reflétant les attaques aux États-Unis le 6 janvier 2021. Auparavant, le propriétaire de Facebook, Meta, avait déclaré qu’il se consacrait au blocage du contenu conçu pour inciter à davantage de violence post-électorale au Brésil. Pourtant, aujourd’hui, l’organisation de défense des droits de l’homme Global Witness a publié les résultats d’un test qui montre que Meta accepte apparemment toujours les publicités qui font exactement cela.
Global Witness a envoyé 16 annonces sur Facebook, certaines appelant les gens à prendre d’assaut les bâtiments gouvernementaux, d’autres décrivant l’élection comme volée, et certaines appelant même à la mort d’enfants dont les parents ont voté pour le nouveau président du Brésil, Luiz Inácio Lula da Silva. Facebook a approuvé toutes les publicités sauf deux, ce qui, selon la militante des menaces numériques de Global Witness, Rosie Sharpe, prouve que Facebook ne fait pas assez pour appliquer ses politiques publicitaires limitant ce contenu violent.
« A la suite des violences à Brasilia, Facebook a déclaré qu’il ‘surveillait activement’ la situation et supprimait le contenu en violation de ses politiques », a déclaré Sharpe dans un communiqué de presse. « Ce test montre à quel point ils sont incapables d’appliquer ce qu’ils disent. Il est absolument impossible que le type de contenu violent que nous avons testé soit approuvé pour publication par une grande entreprise de médias sociaux comme Facebook.
Pour s’assurer qu’aucune de ses publicités test n’atteint des publics vulnérables, Global Witness a supprimé les publicités avant que des messages alarmants comme « Mort aux enfants des électeurs de Lula » ne puissent être publiés.
Global Witness a identifié cela comme un problème particulièrement préoccupant sur Facebook – pas nécessairement une faiblesse de toutes les plateformes sociales basées sur la publicité – en testant également le même ensemble de publicités sur YouTube. Contrairement à Facebook, YouTube n’a approuvé aucune des publicités. YouTube a également pris la mesure supplémentaire de suspendre les comptes qui ont tenté de publier les publicités.
« La réponse beaucoup plus forte de YouTube démontre que le test que nous avons défini est possible de passer », a déclaré Sharpe.
Ars n’a pas pu joindre YouTube ou Meta dans l’immédiat pour commenter. Naomi Hirst, responsable de la campagne sur les menaces numériques de Global Witness, a déclaré à Ars : « Il est difficile de croire que Facebook prendra les mesures nécessaires pour lutter contre la propagation de la désinformation et de la haine sur sa plateforme. Malgré les promesses qu’ils prennent ce problème au sérieux, nos enquêtes ont révélé des manquements répétés. »
Meta minimise les résultats des tests
Un porte-parole de Meta a déclaré à Global Witness que la taille de son échantillon de 16 publicités lors de l’exécution du test était trop petite pour représenter la capacité de Facebook à appliquer ses politiques publicitaires à grande échelle.
« Comme nous l’avons dit dans le passé, avant les élections de l’année dernière au Brésil, nous avons supprimé des centaines de milliers de contenus qui enfreignaient nos politiques sur la violence et l’incitation et rejeté des dizaines de milliers de soumissions d’annonces avant leur diffusion », a déclaré Meta a déclaré le porte-parole dans le communiqué de presse de Global Witness. « Nous utilisons la technologie et les équipes pour aider à protéger nos plates-formes contre les abus, et nous affinons constamment nos processus pour appliquer nos politiques à grande échelle. »
Hirst a déclaré à Ars que Global Witness a maintenant montré qu’« avant, pendant et maintenant après les récentes élections au Brésil », il est resté facile de faire approuver par Facebook « des publicités contenant des incitations à la violence, des informations incorrectes et des contenus haineux ».
« La démocratie est en danger si Facebook et d’autres entreprises de médias sociaux ne parviennent pas à endiguer la vague de division et de violence qui fleurit en ligne », a déclaré Hirst à Ars.
Dans son communiqué de presse, Global Witness semble suggérer que Facebook ne prend pas les attentats au Brésil aussi au sérieux que la plateforme sociale a pris les attaques américaines l’année dernière lorsque l’entreprise a mis en place des « mesures de bris de glace » pour empêcher les troubles civils de se propager sur Facebook.
Avant les élections américaines de 2020, le responsable des affaires mondiales et des communications de Facebook, Nick Clegg, a déclaré à USA Today que Facebook avait « développé des outils de bris de glace qui nous permettent, ne serait-ce que pour une période temporaire, de jeter efficacement une couverture sur beaucoup de contenu qui circulerait librement sur nos plateformes, afin de jouer notre rôle aussi responsable que possible pour empêcher ce contenu, sciemment ou non, d’aider et d’encourager ceux qui veulent continuer avec la violence et les troubles civils que nous voyons sur le sol. »
Après que le récent test de Global Witness ait semblé montrer que Facebook faisait moins d’efforts pour empêcher les contenus incitant à la violence d’attiser les troubles civils au Brésil, Global Witness a recommandé que Facebook et toutes les autres sociétés de médias sociaux s’engagent à intensifier leurs efforts de modération de contenu avec le même l’enthousiasme manifesté après les attentats américains.
« Global Witness appelle Facebook et d’autres entreprises de médias sociaux à mettre en œuvre immédiatement des mesures de « briser la vitre » et à déclarer publiquement ce qu’ils font d’autre pour lutter contre la désinformation et l’incitation à la violence au Brésil et comment ces efforts sont financés », a déclaré Sharpe.