TikTok fait l’objet d’une enquête de la part des agences gouvernementales américaines sur sa gestion du matériel d’abus sexuels sur des enfants, alors que l’application vidéo courte en plein essor a du mal à modérer un flot de nouveaux contenus.
Faire face aux prédateurs sexuels a été un défi persistant pour les plateformes de médias sociaux, mais la jeune base d’utilisateurs de TikTok l’a rendu vulnérable à être une cible.
Le département américain de la Sécurité intérieure enquête sur la manière dont TikTok traite le matériel d’abus sexuels sur des enfants, selon deux sources proches du dossier.
Le ministère de la Justice examine également comment une fonctionnalité de confidentialité spécifique sur TikTok est exploitée par des prédateurs, a déclaré une personne au courant de l’affaire. Le DOJ a pour politique de longue date de ne pas confirmer ou nier l’existence d’enquêtes en cours.
« C’est un endroit parfait pour les prédateurs pour rencontrer, soigner et engager des enfants », a déclaré Erin Burke, chef de l’unité des enquêtes sur l’exploitation des enfants à la division de la cybercriminalité de la sécurité intérieure, l’appelant la « plate-forme de choix » pour le comportement.
Les enquêtes mettent en évidence à quel point TikTok a du mal à faire face au torrent de contenu généré par plus d’un milliard d’utilisateurs. La société, détenue par le chinois ByteDance, compte plus de 10 000 modérateurs humains dans le monde et a rapidement embauché du personnel dans ce domaine.
L’entreprise est en plein essor. Une prévision d’Insider Intelligence évalue les revenus publicitaires de TikTok à 11,6 milliards de dollars cette année, soit trois fois plus que les 3,9 milliards de dollars de l’année dernière.
Mark Zuckerberg, directeur général de Meta, a blâmé la popularité de TikTok parmi les jeunes comme principale raison du ralentissement de l’intérêt pour ses plateformes de médias sociaux établies de plus longue date telles que Facebook et Instagram.
Mais Meta a une plus grande expérience dans le traitement du matériel problématique, avec environ 15 000 modérateurs dans le monde et utilisant d’autres systèmes automatisés conçus pour signaler les publications.
Entre 2019 et 2021, le nombre d’enquêtes sur l’exploitation d’enfants liées à TikTok par la sécurité intérieure a été multiplié par sept.
Les réseaux de médias sociaux utilisent une technologie formée sur une base de données d’images collectées par le National Center for Missing and Exploited Children (NCMEC), une organisation centralisée où les entreprises sont légalement tenues de signaler le matériel pédopornographique.
TikTok a rapporté près de 155 000 vidéos l’année dernière, tandis qu’Instagram, qui compte également plus d’un milliard d’utilisateurs, a enregistré près de 3,4 millions de signalements. TikTok n’a reçu aucune demande de retrait du NCMEC l’année dernière, contrairement à ses rivaux Facebook, Instagram et YouTube.
« TikTok a une tolérance zéro pour le matériel d’abus sexuels sur des enfants », a déclaré la société. « Lorsque nous constatons une tentative de publication, d’obtention ou de distribution [child sexual abuse material]nous supprimons le contenu, interdisons les comptes et les appareils, signalons immédiatement au NCMEC et communiquons avec les forces de l’ordre si nécessaire. »
Cependant, Burke de Homeland Security a affirmé que les entreprises internationales telles que TikTok étaient moins motivées lorsqu’elles travaillaient avec les forces de l’ordre américaines. « Nous voulons [social media companies] pour s’assurer de manière proactive que les enfants ne sont pas exploités et maltraités sur vos sites – et je ne peux pas dire qu’ils le font, et je peux dire que beaucoup d’entreprises américaines le sont », a-t-elle ajouté.
TikTok a déclaré avoir supprimé 96% du contenu qui enfreignait ses politiques de sécurité mineures avant que quiconque ne les ait consultés. Les vidéos de mineurs buvant de l’alcool et fumant représentaient la majorité des suppressions en vertu de ces lignes directrices.
Un modèle que le Financial Times a vérifié auprès des forces de l’ordre et des groupes de sécurité des enfants était que le contenu était acheté et échangé via des comptes privés, en partageant le mot de passe avec les victimes et d’autres prédateurs. Des mots de code clés sont utilisés dans les vidéos publiques, les noms d’utilisateur et les biographies, mais le contenu illégal est téléchargé à l’aide de la fonction « Only Me » de l’application où les vidéos ne sont visibles que pour les personnes connectées au profil.
Seara Adair, une militante pour la sécurité des enfants, a signalé cette tendance aux forces de l’ordre américaines après avoir d’abord signalé le contenu sur TikTok et avoir appris qu’une vidéo ne violait pas les politiques. « Discussion TikTok[s] constamment sur le succès de leur intelligence artificielle, mais un enfant clairement nu s’y glisse », a déclaré Adair. Tous les comptes et vidéos référencés sur TikTok par le FT ont désormais été supprimés.
« Nous sommes profondément attachés à la sécurité et au bien-être des mineurs, c’est pourquoi nous intégrons la sécurité des jeunes dans nos politiques, activons les paramètres de confidentialité et de sécurité par défaut sur les comptes adolescents et limitons les fonctionnalités par âge », a ajouté TikTok.
© 2022 The Financial Times Ltd. Tous droits réservés Ne pas redistribuer, copier ou modifier de quelque manière que ce soit.