La fonctionnalité Clips de Twitch aurait permis à la maltraitance des enfants de s’envenimer sur la plateforme

Un rapport d’enquête de Bloomberg dresse un tableau inquiétant des difficultés de Twitch à modérer la plateforme de diffusion en direct, en particulier sa fonctionnalité Clips, qui permet aux utilisateurs de conserver de courtes vidéos. Le média rapporte qu’après avoir analysé environ 1 100 clips, il en a trouvé au moins 83 avec un contenu sexualisé impliquant des enfants. Twitch a supprimé les vidéos après avoir été alerté, et un porte-parole de l’entreprise a écrit à Engadget dans un e-mail indiquant qu’elle avait depuis « investi massivement dans des outils d’application et des mesures préventives, et qu’elle continuera de le faire ».

Bloomberg a mis en évidence un incident qui illustre le problème de la nature permanente des Clips sur la plate-forme par ailleurs éphémère. Il raconte l’histoire troublante d’un garçon de 12 ans qui s’est rendu sur Twitch au printemps dernier « pour manger un sandwich et jouer du cor d’harmonie ». Il a rapidement commencé à répondre aux demandes des téléspectateurs, ce qui (dans un triste reflet du comportement en ligne) a conduit le garçon à baisser son pantalon.

Le média décrit l’incident comme s’étant terminé « en un instant ». Pourtant, la fonction d’enregistrement de Clips a permis à un téléspectateur – qui aurait suivi plus d’une centaine de comptes appartenant à des enfants – de le conserver. Cela aurait conduit à plus de 130 vues du clip de 20 secondes avant que Twitch n’en soit informé et ne le supprime.

Clips lancés en 2016 pour préserver des moments autrement éphémères sur la plateforme. La fonction enregistre 25 secondes avant (et cinq secondes après) d’appuyer sur le bouton d’enregistrement. Cela a pour effet secondaire malheureux de permettre aux prédateurs de sauvegarder un moment troublant et de le diffuser ailleurs.

Twitch a prévu d’étendre Clips cette année dans le cadre d’une stratégie visant à produire davantage de contenu de type TikTok sur la plateforme. Il prévoit de lancer un flux de découverte (également similaire à TikTok) où les utilisateurs pourront publier leurs courtes vidéos.

BloombergLe rapport cite le Centre canadien de protection de l’enfance, qui a examiné les 83 vidéos d’exploitation et a conclu que 34 représentaient de jeunes utilisateurs montrant leurs organes génitaux devant la caméra. La plupart seraient des garçons âgés de cinq à 12 ans. 49 clips supplémentaires incluaient du contenu sexualisé mettant en scène des mineurs « exposant des parties de leur corps ou étant soumis à des efforts de toilettage ».

L’organisation a déclaré que les 34 vidéos « les plus flagrantes » ont été visionnées 2 700 fois. Le reste a totalisé 7 300 vues.

La réponse de Twitch

« Les préjudices causés aux jeunes, partout en ligne, sont inacceptables et nous prenons ce problème extrêmement au sérieux », a écrit un porte-parole de Twitch à Engadget. En réponse à son alerte concernant du matériel pédopornographique (CSAM), la société affirme avoir développé de nouveaux modèles pour détecter les comportements potentiels de toilettage et met à jour ses outils existants pour identifier et supprimer plus efficacement les utilisateurs bannis qui tentent de créer de nouveaux comptes (y compris pour les jeunes). questions liées à la sécurité).

Twitch ajoute qu’il a renforcé l’application par ses équipes de sécurité des diffusions en direct, la racine des Clips. « Cela signifie que lorsque nous désactivons un livestream contenant du contenu nuisible et suspendons la chaîne, parce que des clips sont créés à partir de livestreams, nous empêchons la création et la diffusion de clips nuisibles à la source », a écrit la société. « Il est important de noter que nous avons également veillé à ce que lorsque nous supprimons et désactivons des clips qui enfreignent nos directives communautaires, ces clips ne soient pas disponibles via le domaine public ou d’autres liens directs. »

« Nous reconnaissons également que, malheureusement, les préjudices en ligne évoluent », a poursuivi le porte-parole. « Nous avons amélioré les lignes directrices que nos équipes de sécurité internes utilisent pour identifier certains de ces préjudices en ligne en constante évolution, comme le matériel génératif d’abus sexuels sur enfants (CSAM) activé par l’IA. » Twitch a ajouté qu’il avait élargi la liste des organisations externes avec lesquelles il travaille pour (espérons-le) éliminer tout contenu similaire à l’avenir.

Les problèmes de modération de Twitch

Bloomberg rapporte que Clips a été l’une des sections les moins modérées sur Twitch. Il note également que l’entreprise a licencié 15 % de son équipe interne de confiance et de sécurité en avril 2023 (dans le cadre d’une année difficile en termes de licenciements technologiques) et qu’elle est devenue de plus en plus dépendante de partenaires extérieurs pour écraser le contenu CSAM.

La plate-forme de diffusion en direct de Twitch en fait un défi de modération plus délicat que les sites vidéo plus traditionnels comme YouTube ou Instagram. Ces plateformes peuvent comparer les vidéos téléchargées avec des hachages – des empreintes digitales qui peuvent repérer les fichiers problématiques précédemment connus et publiés en ligne. « La technologie de hachage recherche quelque chose qui correspond à quelque chose vu précédemment », a déclaré Lauren Coffren du Centre national américain pour les enfants disparus et exploités. « La diffusion en direct signifie que c’est tout nouveau. »

Source-145