vendredi, novembre 22, 2024

Apple accusé de sous-déclarer les cas présumés de CSAM sur ses plateformes

Apple a été accusée de sous-déclarer la prévalence du matériel d’abus sexuel sur mineurs () sur ses plateformes. La National Society for the Prevention of Cruelty to Children (NSPCC), une organisation caritative de protection de l’enfance au Royaume-Uni, affirme qu’Apple n’a signalé que 267 cas de matériel d’abus sexuel sur mineurs dans le monde au National Center for Missing & Exploited Children (NCMEC) l’année dernière.

Ce chiffre est bien pâle en comparaison des 1,47 million de cas potentiels signalés par Google et des 30,6 millions signalés par Meta. Parmi les autres plateformes qui ont signalé plus de cas potentiels de CSAM qu’Apple en 2023 figurent TikTok (590 376), X (597 087), Snapchat (713 055), Xbox (1 537) et PlayStation/Sony Interactive Entertainment (3 974). Chaque entreprise technologique basée aux États-Unis est tenue de transmettre tout cas potentiel de CSAM détecté sur ses plateformes au NCMEC, qui transmet les cas aux organismes d’application de la loi compétents dans le monde entier.

La NSPCC a également déclaré qu’Apple était impliquée dans plus de cas de CSAM (337) en Angleterre et au Pays de Galles entre avril 2022 et mars 2023 que ce qu’elle a rapporté dans le monde entier en un an. L’association caritative a utilisé des demandes d’accès à l’information pour recueillir ces données auprès des forces de police.

Comme qui a été le premier à signaler la plainte de la NSPCC, souligne que les services Apple tels qu’iMessage, FaceTime et iCloud disposent tous d’un cryptage de bout en bout, ce qui empêche l’entreprise de visualiser le contenu que les utilisateurs partagent sur eux. Cependant, WhatsApp dispose également du cryptage E2EE, et ce service a signalé près de 1,4 million de cas de CSAM suspectés au NCMEC en 2023.

« Il existe un écart inquiétant entre le nombre de délits d’abus sexuels sur mineurs commis sur les services d’Apple au Royaume-Uni et le nombre presque négligeable de signalements de contenus abusifs aux autorités dans le monde », a déclaré Richard Collard, responsable de la politique de sécurité des enfants en ligne de la NSPCC. « Apple est clairement en retard sur bon nombre de ses pairs dans la lutte contre les abus sexuels sur mineurs, alors que toutes les entreprises technologiques devraient investir dans la sécurité et se préparer au déploiement de l’Online Safety Act au Royaume-Uni. »

En 2021, Apple a déployé un système qui analyserait les images avant qu’elles ne soient téléchargées sur iCloud et les comparerait à une base de données d’images CSAM connues du NCMEC et d’autres organisations. Mais à la suite des défenseurs de la vie privée et des droits numériques, Apple a finalement abandonné ses outils de détection CSAM avant de les télécharger sur iCloud.

Apple a refusé de commenter l’accusation de la NSPCC, soulignant plutôt Le gardien Apple a fait une déclaration lorsqu’elle a abandonné le plan de numérisation CSAM. Apple a déclaré avoir opté pour une stratégie différente qui « donne la priorité à la sécurité et à la confidentialité des [its] utilisateurs. » La société a déclaré en août 2022, « les enfants peuvent être protégés sans que les entreprises ne passent au peigne fin les données personnelles ».

Source-145

- Advertisement -

Latest