Les sénateurs exigent des réponses de Meta sur la façon dont il gère le CSAM sur Instagram

Un groupe de sénateurs bipartites aurait demandé des explications pour empêcher que du matériel d’abus sexuels sur des enfants (CSAM) ne soit partagé entre les réseaux de pédophiles sur la plateforme. Les législateurs du Comité judiciaire du Sénat veulent également savoir comment les algorithmes d’Instagram ont réuni les utilisateurs qui souhaitent partager ce contenu en premier lieu, selon .

Dans une lettre adressée à la société, 10 sénateurs, dont le président du comité Dick Durbin et le membre de rang républicain Lindsey Graham, auraient déclaré qu’ils étaient « gravement préoccupés par le fait que l’échec d’Instagram à empêcher cette utilisation perverse de ses algorithmes n’est pas dû à un manque de capacité, mais plutôt à un manque d’initiative et de motivation. » Ils craignent que Meta ne semble pas avoir fait du CSAM l’une de ses principales priorités, « surtout lorsque sa plateforme facilite et renforce directement le marché noir du matériel pédopornographique ».

Ils ont demandé des réponses sur les raisons pour lesquelles Instagram n’avait pas détecté que le CSAM était partagé et sur ce que faisait la plate-forme pour empêcher que la même chose ne se reproduise. Les sénateurs veulent également en savoir plus sur un groupe de travail que Meta dit avoir mis en place pour s’attaquer à ces problèmes. Ils ont demandé à l’entreprise de répondre avant le 12 juillet. Engadget a demandé une copie de la lettre.

Plus tôt ce mois-ci, que les algorithmes de Meta aidaient à « connecter et promouvoir un vaste réseau de comptes » qui propageaient le CSAM. Le rapport suggère que les pédophiles achètent et vendent du CSAM sur Instagram. Meta dit avoir mis en place un groupe de travail pour résoudre le problème. Il s’est engagé à supprimer les réseaux CSAM et dit qu’il essaie d’empêcher ses systèmes de mettre les agresseurs potentiels en contact les uns avec les autres.

Meta a refusé de commenter la lettre, réitérant à la place sa déclaration sur le Journalrapport initial. « L’exploitation des enfants est un crime horrible », a-t-il déclaré, « Nous recherchons en permanence des moyens de nous défendre activement contre ce comportement. »

Un responsable de l’Union européenne doit également résoudre rapidement les problèmes de CSAM, avertissant que l’entreprise pourrait faire face à de lourdes sanctions dans le cas contraire. , Meta et d’autres plateformes technologiques majeures devront se conformer au bloc , qui a des règles spécifiques sur la façon dont ils doivent gérer des problèmes comme CSAM. Si une entreprise ne se conforme pas à la loi, elle peut faire face à des amendes pouvant atteindre 6 % de son chiffre d’affaires mondial annuel.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.

Source-145