UN Forbes rapport soulève des questions sur la façon dont l’équipe de modération de TikTok gère le matériel d’abus sexuel d’enfants – alléguant qu’il accordait un accès large et non sécurisé à des photos et des vidéos illégales.
Les employés d’une société de modération tierce appelée Teleperformance, qui travaille avec TikTok entre autres, affirment qu’elle leur a demandé d’examiner une feuille de calcul inquiétante appelée DRR ou Daily Required Reading sur les normes de modération TikTok. La feuille de calcul contenait prétendument du contenu qui violait les directives de TikTok, y compris des « centaines d’images » d’enfants nus ou maltraités. Les employés disent que des centaines de personnes chez TikTok et Teleperformance pourraient accéder au contenu de l’intérieur et de l’extérieur du bureau, ouvrant la porte à une fuite plus large.
Teleperformance dément Forbes qu’il montrait aux employés du contenu exploitant sexuellement, et TikTok a déclaré que son matériel de formation avait « des contrôles d’accès stricts et n’incluait pas d’exemples visuels de CSAM », bien qu’il n’ait pas confirmé que tous les fournisseurs tiers respectaient cette norme.
Les employés racontent une histoire différente, et comme Forbes énonce, c’est légalement risqué. Les modérateurs de contenu sont régulièrement obligés de gérer le CSAM publié sur de nombreuses plateformes de médias sociaux. Mais les images d’abus d’enfants sont illégales aux États-Unis et doivent être manipulées avec précaution. Les entreprises sont censées signaler le contenu au National Center for Missing and Exploited Children (NCMEC), puis le conserver pendant 90 jours mais minimiser le nombre de personnes qui le voient.
Les allégations ici vont bien au-delà de cette limite. Ils indiquent que Teleperformance a montré aux employés des photos et des vidéos graphiques comme exemples de quoi taguer sur TikTok, tout en jouant rapidement et librement avec l’accès à ce contenu. Une employée dit qu’elle a contacté le FBI pour demander si la pratique constituait une diffusion criminelle de CSAM, bien qu’il ne soit pas clair si une a été ouverte.
Le plein Forbes rapport vaut bien une lecture, décrivant une situation où les modérateurs n’ont pas été en mesure de suivre la croissance explosive de TikTok et on leur a dit de regarder les crimes contre les enfants pour des raisons qui, selon eux, ne correspondaient pas. Même selon les normes compliquées des débats sur la sécurité des enfants en ligne, c’est une situation étrange – et si elle est exacte, horrifiante.