Mastodon a gagné en popularité au cours de l’année écoulée alors que les utilisateurs de Twitter cherchaient des alternatives à la suite d’Elon Musk. Une partie de son attrait réside dans sa nature décentralisée qui l’isole des caprices des milliardaires qui parlent avant de penser. Sans surprise, cependant, ce qui le rend si attrayant s’est également avéré être un casse-tête, rendant la modération de contenu pratiquement impossible.
trouvé 112 correspondances de matériel d’abus sexuel d’enfants (CSAM) connu sur une période de deux jours, avec près de 2 000 messages utilisant des hashtags communs liés à du matériel abusif. Le chercheur David Thiel a déclaré : « Nous avons obtenu plus de résultats photoDNA en deux jours que nous n’en avons probablement eu dans toute l’histoire de notre organisation en matière d’analyse des médias sociaux, et ce n’est même pas proche. » Nous avons contacté Mastodon pour obtenir des commentaires et mettrons à jour cette histoire une fois que nous aurons reçu une réponse.
Bien sûr, le gros problème avec les plateformes de médias sociaux non fédérées telles que Mastodon est qu’aucune entreprise ou entité ne contrôle tout sur la plateforme. Chaque instance a ses propres administrateurs, et ce sont eux qui sont responsables en dernier ressort. Cependant, ces administrateurs ne peuvent pas contrôler et modérer ce qui se passe dans d’autres instances ou serveurs.
Ce n’est pas non plus uniquement un problème de Mastodon. est également construit autour du modèle décentralisé. Bien qu’il ne soit pas encore pris en charge, Threads prévoit d’être . Cela signifie que les utilisateurs de Threads pourront suivre, répondre et republier le contenu de Mastodon, et vice versa.
Cela crée un problème unique pour Meta, qui ne peut pas contrôler l’intégralité du flux de modération comme il le pourrait avec Facebook ou Instagram. Même alors, la société. Vraisemblablement, des instances plus grandes sur Mastodon et d’autres plates-formes telles que Threads pourraient carrément bloquer l’accès aux instances problématiques. Bien sûr, cela ne « résoudrait » pas le problème. Le contenu existerait toujours. Il serait simplement cloisonné et laissé aux modérateurs de cette instance spécifique pour le supprimer.