Mastodon, le réseau décentralisé considéré comme une alternative viable à Twitter, regorge de matériel d’exploitation sexuelle d’enfants (CSAM), selon un nouvelle étude depuis Observatoire Internet de Stanford (via Le Washington Post). En seulement deux jours, les chercheurs ont trouvé 112 cas de CSAM connus sur 325 000 messages sur la plate-forme, le premier cas apparaissant après seulement cinq minutes de recherche.
Pour mener ses recherches, l’Observatoire Internet a scanné les 25 instances Mastodon les plus populaires pour CSAM. Les chercheurs ont également utilisé l’API SafeSearch de Google pour identifier les images explicites, ainsi que PhotoDNA, un outil qui aide à trouver le CSAM signalé. Au cours de sa recherche, l’équipe a trouvé 554 éléments de contenu correspondant à des hashtags ou des mots-clés souvent utilisés par des groupes d’abus sexuels d’enfants en ligne, qui ont tous été identifiés comme explicites dans la « confiance la plus élevée » par Google SafeSearch.
L’affichage ouvert de CSAM est « très répandu »
Il y a également eu 713 utilisations des 20 principaux hashtags liés au CSAM dans le Fediverse sur des publications contenant des médias, ainsi que 1 217 publications textuelles indiquant « le commerce ou le toilettage de mineurs hors site ». L’étude note que la publication ouverte de CSAM est « très répandue ».
Un exemple faisait référence à la panne prolongée du serveur mastodon.xyz que nous avons notée plus tôt ce mois-ci, qui était un incident survenu en raison de CSAM posté sur Mastodon. Dans un post sur l’incidentle seul responsable du serveur a déclaré avoir été alerté du contenu contenant du CSAM, mais note que la modération se fait pendant son temps libre et peut prendre jusqu’à quelques jours pour se produire – ce n’est pas une opération géante comme Meta avec une équipe mondiale de sous-traitants, c’est juste une personne.
Alors qu’ils disaient avoir pris des mesures contre le contenu en question, l’hébergeur du domaine mastodon.xyz l’avait quand même suspendu, rendant le serveur inaccessible aux utilisateurs jusqu’à ce qu’ils parviennent à joindre quelqu’un pour restaurer son listing. Une fois le problème résolu, l’administrateur de mastodon.xyz a déclaré que le bureau d’enregistrement avait ajouté le domaine à une liste de « faux positifs » pour empêcher de futurs retraits. Cependant, comme le soulignent les chercheurs, « ce qui a causé l’action n’était pas un faux positif ».
« Nous avons obtenu plus de visites photoDNA en deux jours que nous n’en avons probablement eu dans toute l’histoire de notre organisation en matière d’analyse des médias sociaux, et ce n’est même pas proche », a déclaré David Thiel, l’un des chercheurs du rapport, dans une déclaration à Le Washington Post. « Une grande partie est simplement le résultat de ce qui semble être un manque d’outils que les plateformes centralisées de médias sociaux utilisent pour répondre aux problèmes de sécurité des enfants.
Alors que les réseaux décentralisés comme Mastodon gagnent en popularité, ayez des inquiétudes quant à la sécurité. Les réseaux décentralisés n’utilisent pas la même approche de modération que les sites grand public comme Facebook, Instagram et Reddit. Au lieu de cela, chaque instance décentralisée se voit confier le contrôle de la modération, ce qui peut créer des incohérences dans le Fediverse. C’est pourquoi les chercheurs suggèrent que des réseaux comme Mastodon utilisent des outils plus robustes pour les modérateurs, ainsi que l’intégration PhotoDNA et les rapports CyberTipline.