Instagram est devenu la plate-forme la plus importante pour les acheteurs et les vendeurs de contenu sexuel pour mineurs, selon les enquêtes du Wall Street Journal, de l’Observatoire Internet de Stanford et du Rescue Lab de l’Université du Massachusetts à Amherst (UMass).
Alors que d’autres plates-formes jouent un rôle dans le traitement des paiements et la diffusion de contenu, Instagram est l’endroit où des centaines de milliers, voire des millions, d’utilisateurs recherchent des hashtags explicites pour découvrir des « menus » illégaux de contenu qui peuvent ensuite être commandés. Le contenu proposé comprend des images troublantes d’enfants qui s’automutilent, de « tout-petits incestes » et de mineurs effectuant des actes sexuels avec des animaux, ainsi que des opportunités pour les acheteurs d’organiser des rencontres illicites avec des enfants, a rapporté le Journal.
Étant donné que le matériel d’exploitation sexuelle d’enfants (CSAM) lui-même n’est pas hébergé sur Instagram, le propriétaire de la plate-forme Meta a plus de mal à détecter et à supprimer ces utilisateurs. Les chercheurs ont découvert que même lorsque l’équipe de confiance et de sécurité de Meta interdit les utilisateurs, leurs efforts sont « directement sapés » par le système de recommandation d’Instagram, qui permet aux réseaux de se réassembler rapidement sous des comptes de « sauvegarde » qui sont généralement répertoriés dans le bios des comptes d’origine pour seulement ce but de survivre aux interdictions.
Un porte-parole de Meta a déclaré à Ars que la société travaillait « de manière agressive pour lutter contre » l’exploitation des enfants sur toutes ses plateformes « et pour soutenir les forces de l’ordre dans leurs efforts pour arrêter et poursuivre les criminels derrière elle ». Parce que les tactiques des criminels « changent constamment », Meta a déclaré avoir adopté « des politiques et une technologie strictes pour les empêcher de trouver ou d’interagir avec des adolescents sur nos applications » et embauché « des équipes de spécialistes qui se concentrent sur la compréhension de leurs comportements en évolution afin que nous puissions éliminer les réseaux abusifs . » Ces efforts ont conduit Meta à démanteler 27 réseaux abusifs entre 2020 et 2022 et à interdire 490 000 comptes violant les politiques de sécurité des enfants en janvier 2023, a rapporté le porte-parole.
Mais ces tactiques ne semblent pas suffire pour lutter contre le problème, ont déclaré les chercheurs. Le directeur de l’UMass Rescue Lab, Brian Levine, a déclaré à Ars qu’il avait fallu quelques minutes à son équipe pour découvrir les réseaux pédophiles opérant sur Instagram après avoir identifié des « balises simples » utilisées pour aider à connecter les acheteurs et les vendeurs. Le Wall Street Journal a rapporté que les hashtags identifiés par les chercheurs pourraient être évidents, comme « pedowhore », ou s’appuyer sur des mots codés, comme « cheese pizza », qui partagent des initiales pour faire allusion à la pornographie juvénile.
Levine a déclaré que puisque l’équipe de confiance et de sécurité d’Instagram a un accès plus large pour rechercher la plate-forme, elle devrait être en mesure de surveiller les hashtags plus efficacement que les chercheurs extérieurs. Cependant, l’équipe ne semble pas surveiller efficacement la situation, car il lui manque des hashtags facilement détectables.
C’était la première fois que le laboratoire de Levine examinait Instagram dans le cadre du travail de l’équipe pour rechercher la victimisation des enfants en ligne et créer des outils pour la prévenir, a déclaré Levine à Ars.
« Je pense que leur équipe de confiance et de sécurité a besoin de beaucoup d’aide », a ajouté Levine.
Dans une recherche publiée hier sur le CSAM auto-généré (SG-CSAM) prétendument publié par des mineurs faisant la publicité de leur propre contenu, Alex Stamos, directeur du Stanford Internet Observatory (SIO), a déclaré à Ars que son équipe ne ciblait pas spécifiquement Instagram. Mais l’équipe a découvert que le système de recommandation de la plateforme « joue un rôle particulièrement important en tant que mécanisme de découverte qui présente les acheteurs aux vendeurs ». Levine a déclaré à Ars qu’Instagram a l’obligation de s’assurer que son système de recommandation ne promeut pas de contenu abusif.
Le Journal a révélé qu’Instagram avait omis à plusieurs reprises d’interdire les hashtags, de supprimer du contenu et d’empêcher la promotion une fois le contenu détecté. Après que le Journal a envoyé des demandes de renseignements, par exemple, Meta a confirmé qu’il était « en train de supprimer » les hashtags faisant la promotion de contenus illégaux comme « pedobait » ou « mnsfw » (mineur dangereux pour le travail) et a admis qu’il « autorisait les utilisateurs à rechercher les termes que ses propres algorithmes connaissent peuvent être associés à du matériel illégal. » Un porte-parole de Meta a déclaré à Ars qu’il avait déjà « restreint des milliers de termes de recherche et de hashtags supplémentaires sur Instagram ».
Le WSJ a rapporté qu’Instagram était si inefficace pour empêcher la formation de réseaux pédophiles qu’il affichait parfois un écran contextuel lorsque les utilisateurs recherchaient du contenu abusif connu, avertissant les utilisateurs que « ces résultats peuvent contenir des images d’abus sexuels sur des enfants ». choisir de « voir les résultats quand même » ou « obtenir des ressources » concernant les méfaits de la consommation de contenu abusif. Meta a déclaré au Journal qu’il supprimait cette option mais n’a pas expliqué pourquoi l’option avait été donnée en premier lieu.
Meta a également admis qu’il avait omis à plusieurs reprises d’agir sur les signalements de maltraitance d’enfants sur Instagram en raison d’un « problème logiciel » empêchant le traitement des signalements. Ce bogue aurait depuis été corrigé. Maintenant, Meta a déclaré qu’il fournirait une formation supplémentaire aux examinateurs de contenu et constituerait un groupe de travail interne « pour enquêter sur ces allégations et y répondre immédiatement ».