Bluesky, le décentralisé réseau social et alternative phare à Twitter, a été salué comme un pays des merveilles de messages amusants et de bonnes vibrations. Mais un changement de politique de modération qui a suivi une menace de mort contre un utilisateur noir a beaucoup sur Ciel bleu se demander si la plate-forme est sûre pour les communautés marginalisées après tout.
Bluesky comptait environ 50 000 utilisateurs fin avril. Ses utilisateurs ont doublé depuis lors, et à mesure qu’il gagne plus, il fait également face à une pression accrue pour réprimer les discours de haine et autres commentaires violents. Plateforme bientôt fédérée, Bluesky est à un tournant qui pourrait créer un précédent pour la modération des réseaux sociaux décentralisés. Bien que la modération robuste ne soit pas l’un des principes fondateurs de Bluesky, de nombreux utilisateurs s’attendent à ce que le site soit plus proactif en refusant le sectarisme de la plate-forme, même si cela entre en conflit avec les objectifs décentralisés de Bluesky.
Bluesky n’a pas annoncé de calendrier précis pour la fédération. Dans un 5 mai article de blogl’équipe Bluesky a déclaré qu’elle prévoyait de lancer un « environnement sandbox » pour commencer « bientôt » la phase de test de la fédération.
Ça a commencé dans Hellthread le mois dernier. Le fil, qui s’est initialement formé lorsqu’un bogue de codage a informé chaque utilisateur du fil chaque fois qu’un autre utilisateur y répondait, est devenu un forum de discussion chaotique et apparemment infini avec d’innombrables sous-fils. Initialement un point de vente de merde, le fil s’est transformé en un foyer de discours – ouvrant la porte au racisme endémique.
Aveta, un ingénieur logiciel qui a invité des centaines d’utilisateurs noirs sur Bluesky dans l’espoir de recréer Black Twitter, a répondu dans le fil demandant aux gens d’arrêter de publier des mèmes R. Kelly. Aveta est bien connue sur Bluesky pour élargir la communauté noire sur la plate-forme, et est un ardent défenseur de la reconnaissance de l’influence des Noirs sur la culture Internet.
Le mois dernier, elle a eu une dispute avec Alice, une utilisatrice de Bluesky qui passait par cererean, à propos des commentaires qu’Alice avait faits sur la communauté noire grandissante. Alice a publié plusieurs messages racistes au cours du mois dernier, dont un qui disait que les utilisateurs noirs sont invités à créer leurs propres espaces s’ils ne veulent pas être quelque part qui « reflète la démographie de l’Anglosphère ».
En réponse à un autre commentaire sur les interactions hellthread d’Aveta, Alice a suggéré qu’Aveta soit repoussé « quelque part de très haut ». Aveta, qui a refusé de commenter par peur du harcèlement, décrit Le commentaire d’Alice comme une menace de mort dans les messages sur Bluesky.
D’autres utilisateurs ont signalé le commentaire d’Alice comme une violation de la politique de Bluesky interdisant la violence extrême. L’équipe de modération de Bluesky n’a pas initialement interdit Alice et a provoqué une nouvelle indignation parmi les utilisateurs lorsque le PDG de Bluesky, Jay Graber, a annoncé un changement dans les politiques de la plate-forme qui semblait excuser des commentaires comme celui d’Alice.
« Nous ne tolérons pas les menaces de mort et continuerons à supprimer des comptes lorsque nous pensons que leurs messages représentent un harcèlement ciblé ou une menace crédible de violence. Mais tous les propos passionnés ne franchissent pas la ligne en une menace de mort », a déclaré Graber dans un fil du week-end. « À bon escient ou non, de nombreuses personnes utilisent des images violentes lorsqu’elles se disputent ou se défoulent. Nous avons débattu de la question de savoir si une « menace de mort » devait être spécifique et directe pour causer du tort, et ce que cela signifierait pour la capacité des gens à s’engager dans des discussions animées sur Bluesky si nous interdisions ce genre de discours.
Dans le cadre de la nouvelle politique de Bluesky, tout message qui menace de violence ou de préjudice physique, qu’il soit littéral ou métaphorique, entraînera une suspension temporaire du compte. Les récidivistes seront bannis du serveur de Bluesky, mais une fois que Bluesky aura terminé le « travail requis pour la fédération », a déclaré Graber, les utilisateurs pourront passer à un nouveau serveur avec leurs mutuelles et autres données intactes.
Comme Mastodon, Bluesky se veut un réseau social décentralisé et fédéré. Il n’est pas encore fédéré, donc tous les utilisateurs interagissent toujours sur le serveur de Bluesky et doivent respecter les politiques de Bluesky. Une fois fédéré, tous les utilisateurs de n’importe quel serveur sur AT Protocol pourront « s’inscrire » à un système d’étiquetage communautaire qui inclurait certains filtres de contenu.
Cela signifie qu’en vertu de la nouvelle politique de modération de contenu de Bluesky, un utilisateur qui a été suspendu pour discours de haine ou profération de menaces violentes pourrait toujours s’engager avec d’autres serveurs fonctionnant sur le protocole AT. Bluesky a toujours été transparent sur le fait de devenir un réseau social décentralisé, mais l’action rapide qu’il a précédemment entreprise contre les utilisateurs qui menaçaient les autres a convaincu de nombreux premiers utilisateurs de Bluesky que la plate-forme continuerait à mettre fin à la rhétorique violente ou haineuse.
« Bien que ce ne soit pas nécessairement votre vision, je pense que beaucoup de gens sont moins préoccupés par le passage à une nouvelle instance de Bluesky, que de s’assurer que les fanatiques ne peuvent pas avoir * aucune * instance ici », Ben Perry, un Bluesky utilisateur également connu sous le nom de tedcruznipples, a répondu au fil de Graber. « Ils ne devraient pas avoir la possibilité d’avoir une fédération et de faire proliférer leur message. »
Bluesky a déployé des algorithmes personnalisés le lendemain de l’annonce par Graber de la nouvelle politique de modération. La fonctionnalité permet aux utilisateurs de choisir parmi le « marché d’algorithmes » de Bluesky au lieu de simplement voir le contenu de « l’algorithme maître » que la plupart des sites de médias sociaux utilisent. Comme les listes Twitter, les utilisateurs pourront basculer entre l’onglet « What’s hot », un onglet des personnes qu’ils suivent et des onglets pour les flux personnalisés qu’ils ont épinglés. Le flux « Cat Pics » affiche, comme on pouvait s’y attendre, des photos de chat, tandis que d’autres flux se penchent davantage vers les mèmes et le contenu NSFW.
Mais de nombreux utilisateurs de Bluesky – en particulier les utilisateurs de Black Bluesky – ont remis en question le moment du déploiement. Rudy Fraser, qui a créé un algorithme personnalisé pour les utilisateurs noirs appelé Blacksky, a déclaré qu’il était regrettable que Bluesky ait tenté de proposer des algorithmes personnalisés comme « solution » au débat sur la modération.
« Comme si une nouvelle fonctionnalité résolvait le problème sous-jacent et comme s’ils ne pouvaient pas simplement interdire l’utilisateur fautif », a déclaré Fraser. « Une forme de modération programmable est à l’horizon, mais il n’y a pas encore de prototype pour voir comment cela fonctionnerait… Il existe déjà des moyens de contourner les balises NSFW par exemple. Ils doivent trouver ces bogues avant qu’ils n’atteignent une masse critique.
Modérer les réseaux sociaux décentralisés est un défi qui, par définition, n’offre pas de solutions faciles. Dans le cas de Bluesky, l’établissement et l’application de directives communautaires centralisées pour tous les utilisateurs semblent contraires au système ambitieux de fédération et de modération personnalisable de Bluesky. Sur Mastodonte, la modération est propre à chaque serveur et les règles d’un serveur ne peuvent pas être appliquées sur un autre serveur avec un ensemble de règles différent. À répertorier sous Mastodon’s sélecteur de serveurles serveurs doivent s’engager à Pacte de serveur Mastodon, qui exige « une modération active contre le racisme, le sexisme, l’homophobie et la transphobie ». Alors que la plupart des serveurs importants respectent le Pacte, les serveurs non répertoriés ne sont pas tenus à une norme minimale de modération.
Le fédiverse, un portemanteau d’« univers fédéré », promet un vaste réseau social qui peut exister au-delà de l’autorité d’une seule institution. Bien qu’il y ait des avantages à ce niveau d’indépendance, l’approche de la modération dirigée par la communauté est souvent optimiste au mieux et négligente au pire. Les plates-formes peuvent s’absoudre du fardeau de la modération – qui est laborieuse, coûteuse et toujours source de division – en laissant les utilisateurs prendre le volant à la place.
Permettre aux communautés de se modérer permet également à la haine violente de ne pas être contrôlée. Dans un récent sketchle développeur de logiciels Dare Obasanjo a souligné que de nombreuses approches «techno-optimistes» de la modération de contenu ne tiennent pas compte du contexte.
« Un utilisateur avec une histoire raciste virulente souhaitant nuire à un BIPOC est différent du même commentaire dans un débat sur les films MCU contre DCEU d’utilisateurs par ailleurs bien élevés », a écrit Obasanjo. «Une discussion légaliste sur la question de savoir si« quelqu’un devrait vous pousser hors d’un grand immeuble »est une infraction digne d’interdiction passe complètement à côté de l’essentiel. La question est de savoir si vous tolérez ou non des personnes ouvertement racistes qui souhaitent nuire au BIPOC sur votre application ? »
Bluesky utilise un filtrage automatisé pour éliminer les contenus illégaux et faire une première passe d’étiquetage de « matériel répréhensible », comme décrit dans un article de blog sur la modération composable de la plateforme. Ensuite, Bluesky applique des filtres au niveau du serveur qui permettent aux utilisateurs de masquer, d’avertir ou d’afficher du contenu pouvant être explicite ou offensant. Bluesky prévoit de permettre aux utilisateurs d’activer certains filtres pour personnaliser davantage leurs flux individuels. L’ACLU, par exemple, peut étiqueter certains comptes et publications comme « discours de haine ». Les autres utilisateurs pourront s’abonner au filtre de contenu de l’ACLU pour désactiver le contenu.
Graber a écrit que le système de modération en couches et personnalisable vise à « accorder la priorité à la sécurité des utilisateurs tout en donnant aux gens plus de contrôle ». La société n’a pas précisé publiquement si elle prévoyait ou non d’embaucher également des modérateurs humains.
La modération dans les premiers jours de Bluesky a rencontré un accueil mitigé de la part des utilisateurs. En avril, Bluesky a banni un utilisateur qui s’appelait Hannah pour avoir répondu à Matt Yglesias par « NOUS ALLONS VOUS BATTRE AVEC DES MARTEAU ». De nombreux utilisateurs de Bluesky ont protesté contre l’interdiction et ont insisté sur le fait que l’utilisateur plaisantait. Quelques jours plus tard, Bluesky a rapidement interdit un autre compte qui avait harcelé d’autres utilisateurs avec des commentaires transphobes.
L’interdiction du marteau d’Hannah a refait surface sur Bluesky à la suite du changement de politique de modération. Les utilisateurs de Black Bluesky se sont demandé pourquoi la menace contre Aveta n’était pas prise aussi au sérieux que la réponse d’Hannah. Mekka Okereke, directeur de l’ingénierie chez Google Play, a décrit le commentaire d’Hannah comme « métaphorique et inapproprié », mais a souligné que « les gens ne peuvent tout simplement pas comprendre quand les femmes noires sont le sujet ».
« Et comme je l’ai déjà dit ici, » chambre d’écho « est un terme spécifique principalement utilisé par les médias de droite pour décrire tout endroit qui essaie de faire en sorte que les personnes noires, brunes et LGBTQIA se sentent en sécurité », a déclaré Okereke dans un poste. « Et le pédantisme philosophique » la vérité compte « ne semble sortir que lorsque nous parlons de faire en sorte que les femmes noires se sentent en sécurité en ligne. »
Pariss Athena, qui a fondé le site d’emploi Black Tech Pipeline, a reconnu qu’aucun espace en ligne n’est vraiment sûr, mais a souligné que le racisme direct, la transphobie et l’anti-Blackness ne sont « pas des lignes floues ».
« La responsabilité et l’action permanente doivent être prises de la manière dont elles sont hors ligne », a-t-elle écrit dans un poste. « Ce qui est étrange, c’est que ces choses se sont déjà produites sur Bluesky, mais cela semble aller beaucoup plus lentement en ce qui concerne les personnes noires. »
Les utilisateurs ont une fois félicité la plate-forme pour avoir refusé d’abriter des discours de haine – une décision qui semble creuse pour de nombreux utilisateurs de Black Bluesky après le dernier changement de politique de modération. Bluesky s’est distingué de Twitter non seulement pour ses fonctionnalités personnalisables, mais aussi pour ce qui semblait être un intérêt sérieux à protéger les groupes marginalisés. Les récents changements de politique, cependant, laissent beaucoup douter que Bluesky puisse maintenir cette sécurité.
Fraser n’est pas sûr que Bluesky soit prêt à être « de bons intendants d’un espace sûr pour les groupes marginalisés », mais il est déterminé à rester sur la plate-forme pour le moment.
« Je suis vraiment optimiste quant au potentiel du protocole et j’espère qu’ils feront un effort plus clair pour construire aux côtés des communautés marginalisées à l’avenir », a déclaré Fraser. « Je crois fermement en ‘Rien sur nous sans nous.' »