Meta’s a annulé les suppressions par la société de deux messages montrant un couple transgenre et non binaire avec des poitrines nues et des mamelons couverts. L’une des images a été postée en 2021 et l’autre l’année dernière. Dans les légendes, le couple a discuté des soins de santé trans. Les messages ont noté que l’un d’entre eux prévoyait de subir une chirurgie d’affirmation de genre pour créer une poitrine plus plate et que le duo collectait des fonds pour payer la procédure.
Cependant, a supprimé les messages pour avoir enfreint ses règles sur . Le Conseil de surveillance indique que les modérateurs ont examiné les images plusieurs fois après les rapports des utilisateurs et les alertes des systèmes automatisés. Le couple à l’entreprise et au conseil de surveillance. Meta a déterminé que la suppression des messages était un appel incorrect et les a restaurés, mais le conseil a tout de même examiné les cas doubles.
Le conseil de surveillance a annulé les décisions initiales de retrait de Meta. Il a déterminé que la suppression des images n’était pas conforme aux « normes communautaires, valeurs ou responsabilités en matière de droits de l’homme » de l’entreprise et que les cas soulignent les problèmes fondamentaux des politiques de Meta.
Le conseil a écrit que les directives de Meta aux modérateurs sur le moment de supprimer les messages en vertu de la politique de sollicitation sexuelle sont « beaucoup plus larges que la justification déclarée de la politique ou les directives accessibles au public ». Il a affirmé que l’écart sème la confusion chez les modérateurs et les utilisateurs. Meta lui-même a noté que cette approche a conduit à la suppression incorrecte du contenu.
En outre, le conseil a dénoncé la perspective binaire intrinsèquement restrictive de la norme communautaire sur la nudité et l’activité sexuelle des adultes. Il note que les règles, dans l’état actuel des choses, n’autorisent généralement pas les utilisateurs de Meta à publier des images de mamelons féminins, bien qu’il existe des exceptions pour des choses comme l’allaitement et la chirurgie de confirmation du sexe.
« Une telle approche ne permet pas de savoir comment les règles s’appliquent aux personnes intersexuées, non binaires et transgenres, et oblige les examinateurs à procéder à des évaluations rapides et subjectives du sexe et du genre, ce qui n’est pas pratique lors de la modération de contenu à grande échelle », a écrit le conseil. Il a qualifié les règles actuelles de « déroutantes » et a noté que les nombreuses exceptions (qui autorisent également les images liées aux manifestations et à la sensibilisation au cancer du sein) « souvent alambiquées et mal définies ». En tant que telle, selon le conseil, la politique n’est pas applicable dans la pratique.
« Le conseil d’administration constate que les politiques de Meta sur la nudité adulte entraînent de plus grands obstacles à l’expression pour les femmes, les personnes transgenres et non binaires sur ses plateformes », . « Par exemple, ils ont un impact sévère dans des contextes où les femmes peuvent traditionnellement aller torse nu, et les personnes qui s’identifient comme LGBTQI+ peuvent être affectées de manière disproportionnée, comme le montrent ces cas. Les systèmes automatisés de Meta ont identifié le contenu plusieurs fois, bien qu’il ne viole pas les règles de Meta. Meta devrait chercher à développer et à mettre en œuvre des politiques qui répondent à toutes ces préoccupations. »
Le conseil d’administration a recommandé à l’entreprise de modifier ses règles sur la nudité et l’activité sexuelle des adultes pour inclure « des critères clairs, objectifs et respectueux des droits » afin que chacun soit « traité d’une manière conforme aux normes internationales des droits de l’homme, sans discrimination fondée sur le sexe ». ou le sexe. » Il a exhorté Meta à revoir la politique pour déterminer si elle protège les utilisateurs contre le partage non consensuel d’images et si d’autres règles doivent être renforcées sur ce front. De plus, il a appelé Meta à aligner ses conseils aux modérateurs sur les règles publiques sur la sollicitation sexuelle afin de minimiser les erreurs dans l’application de la politique.
« Nous saluons la décision du conseil d’administration dans cette affaire. Nous avions rétabli ce contenu avant la décision, reconnaissant qu’il n’aurait pas dû être supprimé », a déclaré un porte-parole de Meta à Engadget. « Nous évaluons constamment nos politiques pour aider à rendre nos plateformes plus sûres pour tout le monde. Nous savons que davantage peut être fait pour soutenir la communauté LGBTQ+, et cela signifie travailler avec des experts et des organisations de défense LGBTQ+ sur une série de problèmes et d’améliorations de produits.
Dans les commentaires publics sur l’affaire (PDF), plusieurs personnes ont critiqué Meta pour les décisions originales, affirmant qu’il n’y avait rien de sexuellement explicite dans les images. Un utilisateur a appelé Meta à faire appel à des spécialistes des droits humains LGBTQIA+ et à établir des politiques pour protéger les personnes trans, non binaires et autres personnes LGBTQIA contre le harcèlement et la censure injuste. Un autre a appelé Instagram pour un double standard, accusant la plate-forme d’autoriser les images dans lesquelles les mamelons ne sont couverts que par du ruban adhésif tout en enlevant d’autres là où ils sont couverts de pasties (patchs qui couvrent les mamelons et les aréoles).
Une personne a noté que le couple « m’a aidé à m’accepter et m’a aidé à comprendre des choses sur moi-même », notant que le contenu partagé sur le compte est « très instructif et utile ». Le commentaire a ajouté qu' »il n’y a rien de sexuel dans leur nudité et qu’ils partagent ce type de photos, ce n’est pas d’être nu et d’être provocateur ».
Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.