Le Conseil de surveillance se prononce sur le mot le plus modéré de Meta

Le Conseil de surveillance exhorte Meta à modifier la façon dont il modère le mot « shaheed », un terme arabe qui a conduit à plus de retraits que tout autre mot ou expression sur les plateformes de l’entreprise. Meta a demandé au groupe de l’aider à élaborer de nouvelles règles après l’échec des tentatives de refonte en interne.

Le mot arabe « Shaheed » est souvent traduit par « martyr », bien que le comité note qu’il ne s’agit pas d’une définition exacte et que le mot peut avoir « plusieurs significations ». Mais les règles actuelles de Meta sont basées uniquement sur la définition de « martyr », qui, selon l’entreprise, implique des éloges. Cela a conduit à une « interdiction générale » du mot lorsqu’il est utilisé en conjonction avec des personnes désignées comme « individus dangereux » par l’entreprise.

Cependant, cette politique ignore la « complexité linguistique » du mot, qui est « souvent utilisé, même en référence à des individus dangereux, dans des reportages et des commentaires neutres, des discussions universitaires, des débats sur les droits de l’homme et de manière encore plus passive », déclare le Conseil de surveillance. à son avis. « Il y a de fortes raisons de croire que les multiples significations du terme « Shaheed » entraînent la suppression d’une quantité substantielle de documents qui ne sont pas destinés à faire l’éloge des terroristes ou de leurs actions violentes. »

Dans ses recommandations à Meta, le Conseil de surveillance affirme que l’entreprise devrait mettre fin à son « interdiction générale » du mot utilisé pour désigner des « individus dangereux » et que les messages ne devraient être supprimés que s’il existe d’autres « signaux de violence » clairs ou si le contenu enfreint d’autres politiques. Le conseil d’administration souhaite également que Meta explique mieux comment il utilise des systèmes automatisés pour appliquer ces règles.

Si Meta adoptait les recommandations du Conseil de Surveillance, cela pourrait avoir un impact significatif sur les utilisateurs arabophones de la plateforme. Le conseil d’administration note que le mot, parce qu’il est si courant, « représente probablement plus de suppressions de contenu en vertu des normes communautaires que tout autre mot ou expression », dans les applications de l’entreprise.

« Meta part du principe que la censure peut et va améliorer la sécurité, mais les preuves suggèrent que la censure peut marginaliser des populations entières sans améliorer du tout la sécurité », a déclaré la coprésidente du conseil d’administration (et ancienne première ministre danoise) Helle Thorning-Schmidt. a déclaré dans un communiqué. « Le Conseil est particulièrement préoccupé par le fait que l’approche de Meta ait un impact sur le journalisme et le discours civique, car les organisations médiatiques et les commentateurs pourraient hésiter à faire des reportages sur des entités désignées pour éviter la suppression de contenus. »

Ce n’est pas la première fois que Meta est critiqué pour ses politiques de modération qui affectent de manière disproportionnée les utilisateurs arabophones. Une étude commandée par la société a révélé que les modérateurs de Meta étaient moins précis dans leur évaluation de l’arabe palestinien, ce qui entraînait des « fausses frappes » sur les comptes des utilisateurs. L’année dernière, après les traductions automatiques d’Instagram, la société a commencé à insérer le mot « terroriste » dans les profils de certains utilisateurs palestiniens.

Cet avis est également un autre exemple du temps qu’il faut au conseil de surveillance de Meta pour influencer les politiques du réseau social. La société a demandé pour la première fois au conseil d’administration de donner son avis sur les règles il y a plus d’un an (le Conseil de surveillance a déclaré avoir « suspendu » la publication de la politique après les attentats du 7 octobre en Israël pour s’assurer que ses règles « résistent » au « stress extrême ». » du conflit à Gaza). Meta disposera désormais de deux mois pour répondre aux recommandations, même si la mise en œuvre des changements réels apportés aux politiques et pratiques de l’entreprise pourrait prendre plusieurs semaines ou mois supplémentaires.

« Nous voulons que les gens puissent utiliser nos plateformes pour partager leurs points de vue et qu’ils disposent d’un ensemble de politiques pour les aider à le faire en toute sécurité », a déclaré un porte-parole de Meta dans un communiqué. « Notre objectif est d’appliquer ces politiques de manière équitable, mais le faire à grande échelle pose des défis mondiaux. C’est pourquoi, en février 2023, nous avons demandé conseil au Conseil de surveillance sur la manière dont nous traitons le mot « Shaheed » lorsqu’il fait référence à des personnes ou à des organisations désignées. Nous examinerons les commentaires du Conseil et répondrons dans les 60 jours.

Source-145