samedi, décembre 21, 2024

Les applications de Meta continuent de promouvoir le contenu sur la prédation des enfants, selon un rapport

Meta ne parvient pas à empêcher de vastes réseaux de personnes d’utiliser sa plateforme pour promouvoir des contenus pédopornographiques. Le journal de Wall Street » dit-il, citant de nombreux exemples troublants d’exploitation d’enfants découverts sur Facebook et Instagram. Le rapport, qui intervient alors que Meta fait face à de nouvelles pressions sur sa gestion de la sécurité des enfants, a suscité un nouvel examen de la part des régulateurs de l’Union européenne.

Dans le rapport, Le journal de Wall Street des tests détaillés menés avec le Centre canadien de protection de l’enfance montrant comment les recommandations de Meta peuvent suggérer des groupes Facebook, des hashtags Instagram et d’autres comptes utilisés pour promouvoir et partager du matériel sur l’exploitation des enfants. Selon leurs tests, Meta a mis du temps à répondre aux rapports concernant ce type de contenu, et ses propres algorithmes ont souvent permis aux utilisateurs de se connecter plus facilement aux contenus abusifs et aux autres personnes intéressées.

Par exemple, le Centre canadien de protection de l’enfance a déclaré au journal qu’un « réseau de comptes Instagram comptant jusqu’à 10 millions d’abonnés chacun a continué à diffuser en direct des vidéos d’abus sexuels sur des enfants des mois après que cela ait été signalé à l’entreprise. » Dans un autre exemple troublant, Meta a initialement refusé de donner suite à un rapport d’utilisateur concernant un groupe Facebook public appelé « Inceste ». Le groupe a finalement été démantelé, ainsi que d’autres communautés similaires.

Dans un long article sur son site Internet, Meta a déclaré que « les prédateurs sont des criminels déterminés qui testent les défenses des applications, des sites Web et des plateformes », et qu’elle a amélioré bon nombre de ses systèmes internes pour restreindre les « adultes potentiellement suspects ». La société a déclaré avoir « élargi la liste existante de termes, d’expressions et d’émojis liés à la sécurité des enfants que nos systèmes peuvent trouver » et avoir utilisé l’apprentissage automatique pour découvrir de nouveaux termes de recherche qui pourraient être potentiellement exploités par des prédateurs d’enfants.

La société a déclaré qu’elle utilisait une technologie pour identifier les « adultes potentiellement suspects » afin de les empêcher de se connecter les uns aux autres, y compris dans les groupes Facebook, et de voir le contenu des autres dans les recommandations. Meta a également dit Le journal de Wall Street il « a commencé à désactiver les comptes individuels qui dépassent un certain seuil de comportement suspect ».

Le réseau social est confronté à une réaction croissante concernant sa gestion de la sécurité des enfants. Le journal de Wall Street a également récemment rapporté qu’Instagram propose du contenu destiné aux personnes qui « pourraient avoir un intérêt lascif pour les enfants ». Des dizaines d’États ont récemment méta accusé de nuire à la santé mentale de ses plus jeunes utilisateurs et de ne pas avoir empêché les plus jeunes d’accéder à ses applications. Mark Zuckerberg sera sans aucun doute confronté à d’intenses questions sur ces allégations lorsqu’il comparaîtra à une audience de la commission judiciaire du Sénat axée sur la sécurité des enfants en ligne. Ses homologues de TikTok, Snap, X et Discord devraient également témoigner.

Pendant ce temps, Meta est également confrontée à de nouvelles pressions de la part des régulateurs étrangers. Les responsables de l’Union européenne utilisent une nouvelle loi sur le traitement par l’entreprise du matériel pédopornographique, à la suite Le Journal rapport. La société a eu jusqu’au 22 décembre pour transmettre ses données au bloc.

Source-145

- Advertisement -

Latest