Twitter prévoyait de créer un clone OnlyFans, mais des problèmes de CSAM auraient fait dérailler le plan

discuté de la création d’un clone pour monétiser le contenu pour adultes qui prévaut sur la plate-forme depuis de nombreuses années, mais son incapacité à détecter et à supprimer efficacement le contenu sexuel préjudiciable a freiné cette notion, selon un . Une équipe Twitter constituée pour savoir si l’entreprise pouvait réussir une telle décision a déterminé ce printemps que « Twitter ne peut pas détecter avec précision l’exploitation sexuelle des enfants et la nudité non consensuelle à grande échelle ». Les conclusions de l’équipe faisaient « partie d’une discussion, qui nous a finalement conduits à suspendre le flux de travail pour les bonnes raisons », a déclaré la porte-parole de Twitter, Katie Rosborough.

Twitter aurait arrêté le projet de monétisation de contenu pour adultes (ACM) en mai, peu de temps après – cet accord est maintenant . L’équipe de direction de l’entreprise a déterminé qu’elle ne pouvait pas aller de l’avant avec l’ACM sans adopter davantage de mesures de santé et de sécurité.

L’enquête () détaille les avertissements que les chercheurs de Twitter ont lancés en février 2021 sur le fait que l’entreprise n’en faisait pas assez pour détecter et supprimer les contenus sexuels préjudiciables, tels que le matériel d’abus sexuels sur des enfants (CSAM). Les chercheurs auraient informé l’entreprise que le système d’application utilisé principalement par Twitter, RedPanda, est « un outil hérité et non pris en charge » qui est « de loin l’un des outils les plus fragiles, inefficaces et sous-supportés » qu’il utilise.

Bien que l’entreprise dispose de systèmes d’apprentissage automatique, ceux-ci semblent avoir du mal à détecter de nouvelles instances de CSAM dans les tweets et les diffusions en direct. Twitter signale manuellement le CSAM au National Center for Missing and Exploited Children (NCMEC). Cependant, les chercheurs ont noté que le processus à forte intensité de main-d’œuvre entraînait un arriéré de cas et un retard dans la déclaration de CSAM au NCMEC. Rosborough a dit Le bord que depuis que les chercheurs ont publié leur rapport l’année dernière, Twitter a considérablement augmenté ses investissements dans la détection du CSAM et embauche plusieurs spécialistes pour s’attaquer au problème.

« Twitter a une tolérance zéro pour l’exploitation sexuelle des enfants », a déclaré Rosborough. « Nous luttons énergiquement contre les abus sexuels d’enfants en ligne et avons beaucoup investi dans la technologie et les outils pour faire appliquer notre politique. Nos équipes dévouées s’efforcent de garder une longueur d’avance sur les acteurs de mauvaise foi et de s’assurer que nous protégeons les mineurs contre les préjudices, à la fois en ligne et hors ligne. »

Les annonceurs se sont peut-être hérissés de la notion de monétisation du contenu pour adultes (même si la pornographie est répandue sur la plate-forme), mais l’avantage financier potentiel pour Twitter était clair. OnlyFans s’attend à générer 2,5 milliards de dollars de revenus cette année, soit environ la moitié de ce que Twitter a généré en 2021. Twitter offre aux créateurs des moyens pour le large public que beaucoup d’entre eux ont construit sur la plate-forme. L’ajout de fonctions de style OnlyFans aurait pu être une mine d’or pour les créateurs de contenu pour adultes et l’entreprise. Des problèmes plus larges ont empêché l’entreprise de franchir cette étape, malgré les améliorations qu’elle prétend avoir apportées au cours des 18 derniers mois.

Engadget a contacté Twitter pour un commentaire.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation.

Source-145