Twitter a suspendu 400 000 pour contenu pédopornographique mais n’a signalé que 8 000 à la police

NurPhoto / Contributeur | NurPhoto

La semaine dernière, Twitter Sécurité a tweeté que la plate-forme « avance plus vite que jamais » pour supprimer le matériel d’exploitation sexuelle d’enfants (CSAM). Il semble cependant que ce ne soit pas tout à fait exact. Les défenseurs de la sécurité des enfants ont déclaré au New York Times qu’après la prise de fonction d’Elon Musk, Twitter a commencé à prendre deux fois plus de temps pour supprimer le CSAM signalé par diverses organisations.

La plate-forme s’est depuis améliorée et supprime désormais le CSAM presque aussi rapidement qu’avant la prise de contrôle de Musk – répondant aux rapports en moins de deux jours – a rapporté le Times. Mais il semble toujours y avoir des problèmes avec son système de signalement CSAM qui continuent de retarder les temps de réponse. Dans un cas préoccupant, une organisation canadienne a passé une semaine à notifier Twitter quotidiennement – alors que les images illégales d’une victime de moins de 10 ans se propageaient sans contrôle – avant que Twitter ne supprime finalement le contenu.

« De notre point de vue, chaque minute où ce contenu est en place, il victimise à nouveau cet enfant », a déclaré à Ars Gavin Portnoy, vice-président des communications du National Center for Missing and Exploited Children (NCMEC). « Cela nous concerne. »

Chef de la confiance et de la sécurité de Twitter Ella Irwin a tweeté la semaine dernière que la lutte contre le CSAM est « incroyablement difficile », mais reste le « No. 1 priorité. Irwin a déclaré au Times que malgré les défis, Twitter est d’accord avec les experts et est conscient que beaucoup plus peut être fait pour bloquer de manière proactive les contenus d’exploitation. Des experts ont déclaré au Times que le manque de personnel de Twitter dans son équipe de confiance et de sécurité était une préoccupation majeure, et des sources ont confirmé que Twitter avait cessé d’investir dans des partenariats et des technologies qui travaillaient auparavant pour améliorer l’efficacité de la plate-forme à supprimer rapidement le CSAM.

« En aucun cas, nous ne nous tapons dans le dos en disant: » Mec, nous avons tout compris «  », a déclaré Irwin au Times.

Twitter n’a pas répondu à la demande de commentaire d’Ars.

Drapeaux rouges soulevés par la stratégie CSAM à petit budget de Twitter

Twitter Safety a tweeté qu’en janvier, Twitter avait suspendu environ 404 000 comptes qui avaient créé, distribué ou engagé avec CSAM. Cela représente 112% de suspensions de comptes de plus que la plate-forme signalée en novembre, a déclaré Twitter, confirmant son affirmation selon laquelle elle se déplaçait « plus vite que jamais ».

Dans le même fil de tweet, Twitter a promis que la société avait «construit de nouvelles défenses qui réduisent de manière proactive la possibilité de découverte» des tweets diffusant du CSAM. La société n’a pas fourni beaucoup de clarté sur ce que ces nouvelles mesures de défense incluaient, rapportant seulement une vague affirmation selon laquelle une telle nouvelle défense contre l’exploitation sexuelle des enfants (CSE) « a réduit le nombre de recherches réussies pour les modèles CSE connus de plus de 99% depuis décembre. ”

Portnoy a déclaré à Ars que le NCMEC craignait que ce que Twitter rapporte publiquement ne corresponde à ce que le NCMEC voit dans ses propres données Twitter à partir de sa cyber ligne de signalement.

« Vous avez Ella Irwin là-bas qui dit qu’ils éliminent plus que jamais, c’est la priorité numéro un, et ce que nous voyons de notre côté, nos données ne le montrent pas », a déclaré Portnoy à Ars.

D’autres organisations de sécurité des enfants ont soulevé des signaux d’alarme sur la façon dont Twitter a géré le CSAM au cours de cette même période. Des sources ont déclaré au Times que Twitter avait cessé de payer pour le logiciel de détection de CSAM construit par une organisation anti-trafic, Thorn, tout en coupant toute collaboration continue pour améliorer ce logiciel. Portnoy a confirmé à Ars que le NCMEC et Twitter restent apparemment divisés par un désaccord sur la politique de Twitter de ne pas signaler aux autorités tous les comptes suspendus diffusant du CSAM.

Sur 404 000 suspensions en janvier, Twitter a signalé environ 8 000 comptes. Irwin a déclaré au Times que Twitter n’est obligé de signaler les comptes suspendus aux autorités que lorsque l’entreprise a « une grande confiance dans le fait que la personne transmet sciemment » du CSAM. Tout compte prétendant vendre ou distribuer du CSAM en dehors de Twitter, mais ne publiant pas directement du CSAM sur Twitter, ne respecte apparemment pas le seuil de Twitter en matière de signalement aux autorités. Irwin a confirmé que la plupart des suspensions de comptes Twitter « impliquaient des comptes qui interagissaient avec le matériel ou prétendaient le vendre ou le distribuer, plutôt que ceux qui l’avaient publié », a rapporté le Times.

Portnoy a déclaré que la réalité est que ces suspensions de compte « justifient largement les cyber-conseils ».

« Si nous pouvons obtenir ces informations, nous pourrons peut-être mettre l’enfant hors d’état de nuire ou donner quelque chose de répréhensible aux forces de l’ordre, et le fait que nous ne voyons pas ces choses est préoccupant », a déclaré Portnoy à Ars.

Le Times voulait tester à quel point Twitter travaillait pour lutter contre le CSAM. L’organisation a donc créé un programme informatique automatisé pour détecter le CSAM sans afficher d’images illégales, en partenariat avec le Centre canadien de protection de l’enfance pour recouper le CSAM trouvé avec le contenu illégal précédemment identifié dans la base de données du centre. La directrice générale du centre canadien, Lianna McDonald, tweeté ce matin pour encourager davantage de groupes de sécurité des enfants à s’exprimer contre Twitter qui semble devenir une plate-forme de choix pour les internautes sur le dark web discutant ouvertement des stratégies pour trouver le CSAM sur Twitter.

« Ce signalement soulève la question : pourquoi est-ce que des images CSAM vérifiées (c’est-à-dire des images connues de l’industrie et de la police) peuvent être téléchargées et hébergées sur Twitter sans être immédiatement détectées par la technologie de blocage d’images ou de vidéos ? » McDonald a tweeté. « En plus de la question de la détection d’images et de vidéos, Twitter a également un problème avec la façon dont il est utilisé par les délinquants pour promouvoir, à la vue de tous, des liens vers CSAM sur d’autres sites Web. »

Alors qu’Irwin semble convaincu que Twitter « s’améliore beaucoup » dans la modération du CSAM, certains experts ont déclaré au Times que Twitter ne prenait même pas les mesures de base pour donner la priorité à la sécurité des enfants, comme l’entreprise le prétend. Lloyd Richardson, le directeur de la technologie du centre canadien, qui a effectué sa propre analyse de CSAM sur Twitter pour compléter l’analyse du Times, a déclaré au Times que « le volume que nous sommes capables de trouver avec un minimum d’effort est assez important. ”

Source-147