Le PDG de Bluesky s’attaque à la modération du contenu dans le fediverse

Le panel sur scène lors de l’événement Informed de la Knight Foundation est la rotation cauchemardesque d’Elon Musk : Mike Masnick, rédacteur en chef de Techdirt, Yoel Roth, ancien responsable de la sécurité de Twitter, et Jay Graber, PDG de Bluesky, se sont réunis pour discuter de la modération du contenu dans le fediverse.

Cela fait plus d’un an que Musk s’est présenté au siège de Twitter avec un véritable évier en remorque, mais de nombreux utilisateurs de médias sociaux sont encore un peu nomades, flottant entre diverses plateformes émergentes. Et si un utilisateur a fait le choix de quitter Twitter à l’ère Musk, il recherche probablement une plateforme avec réel politiques de modérationce qui signifie encore plus de pression pour des dirigeants comme Graber pour qu’ils trouvent le fragile équilibre entre une modération excessive et fastidieuse et une approche totalement non interventionniste.

« Toute la philosophie a été que cela doit avoir une bonne UX et être une bonne expérience », a déclaré Graber à propos de son approche de la gestion de Bluesky. « Les gens ne sont pas uniquement intéressés par la décentralisation et les idées abstraites. Ils sont là pour s’amuser et passer un bon moment ici.

Et au début, les utilisateurs vivaient une bonne – très bonne – expérience.

« Nous avions un ratio très élevé d’affiches et de rôdeurs. Sur de nombreuses plateformes sociales, il y a un très petit pourcentage de personnes qui publient et un très grand pourcentage de personnes qui se cachent », a déclaré Graber. « La culture de publication a été très active, et elle continue de l’être, même si le début était extrêmement élevé, comme si 90 à 95 % des utilisateurs publiaient tous. »

Mais Bluesky a dû faire face à certains douleurs de croissance dans sa version bêta, car il détermine quelle approche adopter face aux problèmes délicats de modération de contenu. Lors d’un incident sur lequel Roth a interrogé Graber sur le panel, les utilisateurs ont découvert que Bluesky n’avait pas de liste de mots interdits d’apparaître dans les noms d’utilisateurs. En conséquence, les utilisateurs ont commencé à enregistrer des noms de compte avec insultes raciales.

« À l’époque, l’été dernier, nous étions une très petite équipe, de l’ordre de moins de dix ingénieurs. Nous pourrions tous nous réunir autour d’une table de conférence », a déclaré Graber. Lorsque les modérateurs de contenu ont découvert le problème des insultes dans les noms d’utilisateur, l’équipe a corrigé le code, qui est open source, afin que les utilisateurs puissent voir la mise en œuvre des listes de mots se produire en temps réel, ce qui a déclenché de nouveaux débats. « Nous avons beaucoup appris sur la transparence de la communication et sur le fait d’être vraiment proactifs…. L’une des raisons pour lesquelles nous sommes restés si longtemps en version bêta est de nous donner un peu d’espace pour bien faire les choses.

Depuis lors, la base d’utilisateurs de Bluesky et son équipe se sont développées. Bluesky a embauché davantage d’ingénieurs et de modérateurs de contenu, tandis que son nombre total d’utilisateurs est passé d’environ 50 000 fin avril 2023 à plus de 3 millions ce mois-ci. Et la plateforme n’est toujours pas ouverte au public.

« Il est juste de dire qu’environ la moitié de notre travail technique sur les produits a été lié d’une manière ou d’une autre à la confiance et à la sécurité, car la modération est au cœur de la façon dont cela fonctionne dans un écosystème ouvert », a déclaré Graber.

Pour des plateformes comme Bluesky, Mastodon et Threads, les défis de modération de contenu deviennent encore plus compliqués lorsque vous ajoutez la variable fediverse.

Une fois que le protocole AT sera pleinement opérationnel, n’importe qui pourra créer son propre réseau social au-dessus de l’infrastructure de Bluesky – Bluesky, en tant que réseau social, n’est qu’une application construite sur le protocole. Mais cela signifie qu’à mesure que de nouveaux réseaux apparaissent sur le protocole AT, l’entreprise devra décider comment (ou si) elle doit réglementer ce que les gens font sur la plateforme. Pour l’instant, cela signifie que Bluesky construit ce qu’il appelle une « modération composable ».

« Notre vision plus large ici est la modération composable, ce qui signifie essentiellement que pour les services que nous gérons, comme l’application, nous définissons une base de référence pour la modération », a déclaré Graber. « Mais nous voulons construire un écosystème où tout le monde peut participer [in moderation]et le tiers est vraiment le premier parti.

Graber explique plus en détail le concept compliqué dans un article de blog :

Les plateformes sociales centralisées délèguent toute la modération à un ensemble central d’administrateurs dont les politiques sont définies par une seule entreprise. C’est un peu comme résoudre tous les litiges au niveau de la Cour suprême. Les réseaux fédérés délèguent les décisions de modération aux administrateurs de serveur. Il s’agit plutôt de résoudre des différends au niveau du gouvernement d’un État, ce qui est préférable car vous pouvez déménager dans un nouvel État si vous n’aimez pas les décisions de votre État – mais déménager est généralement difficile et coûteux dans d’autres réseaux. Nous avons amélioré cette situation en facilitant le changement de serveur et en séparant la modération en services structurellement indépendants.

Ainsi, Bluesky peut interdire la violation des droits d’auteur et le spam, mais une application individuelle construite sur le protocole peut établir ses propres règles, à condition qu’elles ne contredisent pas la ligne de base de Bluesky. Par exemple, Bluesky permet aux utilisateurs de publier du contenu pour adultes, mais si quelqu’un devait créer un serveur plus convivial sur le protocole AT, il aurait le droit d’interdire le contenu pour adultes de son serveur spécifique – et si quelqu’un sur ce serveur n’était pas d’accord avec Cette décision, ils pourraient facilement transférer leur compte vers un autre serveur et conserver tous leurs abonnés.

« L’un des problèmes que nous rencontrons actuellement est que, lorsque vous avez juste ce que Twitter ou Meta vous offrent, et peut-être juste quelques options ou cases à cocher, ce n’est pas vraiment un choix algorithmique », a déclaré Masnick. « Ce n’est pas vraiment une modération composable. Cela ne vous amène pas vraiment à permettre à différentes entités d’essayer différentes choses, d’expérimenter et de voir ce qui fonctionne le mieux.

Les utilisateurs peuvent également choisir d’utiliser des flux tiers pour afficher le contenu, au lieu de simplement choisir parmi les onglets « recommandé » et « suivant ».

« Plutôt que de dire aux gens que la décentralisation présente tous ces avantages dans l’abstrait […] c’est beaucoup plus puissant de simplement dire, ici, il y a 25 000 flux personnalisés que des développeurs tiers ont créés, et vous pouvez simplement choisir parmi eux », a déclaré Graber.

Mais comme Bluesky en est à ses débuts, cette philosophie de modération composable n’a pas encore vraiment été testée. Pendant ce temps, des entreprises de Cloudflare à Substack en passant par Mastodon ont réfléchi à ce qu’elles devaient faire lorsque des communautés dangereuses s’organisent sur votre plateforme.

« Disons que quelqu’un prend tout ce code que vous avez publié, ainsi que le protocole AT, et construit un nouveau réseau. Appelons-le NaziSky », a déclaré Roth à Graber. « Que fais-tu? »

Mastodon a été confronté à un tel problème en 2019, lorsque le réseau social d’extrême droite favorable aux nazis Gab a migré vers ses serveurs après avoir été expulsé de GoDaddy. Le fondateur de Mastodon a condamné Gab, mais a déclaré à l’époque que la décentralisation l’empêchait d’agir réellement – ​​les utilisateurs devaient donc prendre les choses en main. Des serveurs Mastodon individuels ont bloqué en masse le serveur de Gab, rendant impossible l’interaction des membres de Gab avec les autres sur le site Web. Mais Mastodon doit quand même tenir compte du fait que son code open source est utilisé pour alimenter ce qu’il appelle une « plateforme suprémaciste blanche à peine (voire pas du tout) voilée ».

« C’est l’un des compromis de l’open source, à savoir qu’il présente de nombreux avantages : tout est ouvert, tout le monde peut collaborer, tout le monde peut contribuer, tout le monde peut utiliser le code », a déclaré Graber. « Cela signifie également que les personnes dont les valeurs s’écartent radicalement des vôtres peuvent utiliser le code, le récupérer et l’utiliser. »

Comme ce qui s’est passé sur Mastodon, Graber pense que la base d’utilisateurs donnera en fin de compte le ton de ce qui est considéré comme un comportement acceptable sur la plateforme.

« C’est un écosystème pluraliste. Il y a beaucoup de partis, et quand ils décident à l’unanimité que quelque chose se situe en dehors de la fenêtre d’Overton des normes de communication, alors cela devient une sorte de consensus social », a déclaré Graber. « Si un univers parallèle émerge, c’est possible avec les logiciels open source, mais ces communautés ne parlent pas nécessairement si les normes sont si radicalement divergentes. »

Là encore, les plateformes sociales dominantes et centralisées comme Facebook et X ont montré les dangers qui peuvent surgir lorsque seules quelques personnes sont en charge de ces décisions de modération, plutôt que des communautés entières.

«Malheureusement, on ne peut pas transformer un nazi en un non-nazi. Mais nous pouvons limiter l’impact des nazis », a déclaré Masnick. « Limitons leur capacité à faire des ravages. Je pense que cela mène à un meilleur endroit à long terme.

Source-146