Apple détaille les raisons d’abandonner l’outil d’analyse CSAM, d’autres controverses s’ensuivent

En décembre, Apple a déclaré qu’il mettait fin aux efforts visant à concevoir un outil d’analyse de photos iCloud préservant la confidentialité et permettant de détecter les contenus pédopornographiques (CSAM) sur la plate-forme. Initialement annoncé en août 2021, le projet faisait polémique depuis ses débuts. Apple l’a suspendu pour la première fois en septembre en réponse aux inquiétudes des groupes de défense des droits numériques et des chercheurs selon lesquelles un tel outil serait inévitablement abusé et exploité pour compromettre la confidentialité et la sécurité de tous les utilisateurs d’iCloud. Cette semaine, un nouveau groupe de sécurité des enfants connu sous le nom de Heat Initiative a déclaré à Apple qu’il organisait une campagne pour exiger que l’entreprise « détecte, signale et supprime » le matériel d’abus sexuel sur des enfants d’iCloud et offre davantage d’outils permettant aux utilisateurs de signaler les CSAM au entreprise.

Aujourd’hui, dans un geste rare, Apple a répondu à Heat Initiative, expliquant les raisons pour lesquelles il a abandonné le développement de sa fonction d’analyse iCloud CSAM et s’est plutôt concentré sur un ensemble d’outils et de ressources sur l’appareil pour les utilisateurs, connus collectivement sous le nom de fonctionnalités de « sécurité des communications ». La réponse de l’entreprise à Heat Initiative, qu’Apple a partagée avec WIRED ce matin, offre un rare aperçu non seulement de la raison pour laquelle elle s’est orientée vers la sécurité des communications, mais aussi de sa vision plus large de la création de mécanismes permettant de contourner les protections de la vie privée des utilisateurs, telles que le cryptage, pour surveiller données. Cette position est pertinente dans le débat plus large sur le chiffrement, d’autant plus que des pays comme le Royaume-Uni envisagent d’adopter des lois qui obligeraient les entreprises technologiques à pouvoir accéder aux données des utilisateurs pour se conformer aux demandes des forces de l’ordre.

« Les images d’abus sexuels sur des enfants sont odieuses et nous nous engageons à briser la chaîne de coercition et d’influence qui rend les enfants vulnérables », a écrit Erik Neuenschwander, directeur de la confidentialité des utilisateurs et de la sécurité des enfants d’Apple, dans la réponse de l’entreprise à Heat Initiative. Il a cependant ajouté qu’après avoir collaboré avec un ensemble de chercheurs en matière de confidentialité et de sécurité, de groupes de défense des droits numériques et de défenseurs de la sécurité des enfants, la société a conclu qu’elle ne pouvait pas poursuivre le développement d’un mécanisme d’analyse CSAM, même s’il était spécialement conçu pour préserver la vie privée. .

« L’analyse des données iCloud stockées en privé de chaque utilisateur créerait de nouveaux vecteurs de menace que les voleurs de données pourraient trouver et exploiter », a écrit Neuenschwander. « Cela entraînerait également le risque d’une pente glissante de conséquences involontaires. La recherche d’un type de contenu, par exemple, ouvre la porte à une surveillance massive et pourrait susciter le désir de rechercher d’autres systèmes de messagerie cryptés sur différents types de contenu.

WIRED n’a pas pu joindre immédiatement Heat Initiative pour commenter la réponse d’Apple. Le groupe est dirigé par Sarah Gardner, ancienne vice-présidente des affaires extérieures de l’association à but non lucratif Thorn, qui travaille à utiliser les nouvelles technologies pour lutter contre l’exploitation des enfants en ligne et le trafic sexuel. En 2021, Thorn a salué le projet d’Apple de développer une fonctionnalité d’analyse iCloud CSAM. Gardner a déclaré mercredi dans un e-mail adressé au PDG Tim Cook, qu’Apple a également partagé avec WIRED, que Heat Initiative avait trouvé la décision d’Apple de supprimer la fonctionnalité « décevante ».

« Nous croyons fermement que la solution que vous avez dévoilée a non seulement positionné Apple comme un leader mondial en matière de confidentialité des utilisateurs, mais a également promis d’éradiquer des millions d’images et de vidéos d’abus sexuels sur des enfants d’iCloud », a écrit Gardner à Cook. «Je fais partie d’une initiative en développement impliquant des experts et des défenseurs de la sécurité des enfants qui ont l’intention de dialoguer avec vous et votre entreprise, Apple, sur votre retard continu dans la mise en œuvre d’une technologie critique… L’abus sexuel sur les enfants est une question difficile dont personne ne veut parler. à propos, c’est pourquoi il est réduit au silence et laissé de côté. Nous sommes là pour faire en sorte que cela n’arrive pas.

Apple maintient qu’en fin de compte, même sa propre conception bien intentionnée ne pourrait pas être correctement protégée dans la pratique et que les détections de nudité sur l’appareil pour des fonctionnalités telles que Messages, FaceTime, AirDrop et le sélecteur de photos constituent une alternative plus sûre. Apple a également commencé à proposer une interface de programmation d’application (API) pour ses fonctionnalités de sécurité des communications afin que les développeurs tiers puissent les intégrer dans leurs applications. Apple affirme que la plate-forme de communication Discord intègre les fonctionnalités et que les créateurs d’applications ont été largement enthousiastes à l’idée de les adopter.

« Nous avons décidé de ne pas donner suite à la proposition d’une approche hybride client-serveur pour la détection CSAM pour iCloud Photos d’il y a quelques années », a écrit Neuenschwander à Heat Initiative. « Nous avons conclu qu’il n’était pas possible de le mettre en œuvre sans mettre en péril la sécurité et la confidentialité de nos utilisateurs. »

À la demande de Heat Initiative visant à ce qu’Apple crée un mécanisme de signalement CSAM pour les utilisateurs, la société a déclaré à WIRED qu’elle se concentrait sur la connexion directe de ses utilisateurs vulnérables ou victimes avec les ressources locales et les forces de l’ordre de leur région qui peuvent les aider plutôt que d’Apple se positionner comme un intermédiaire pour le traitement des rapports. L’entreprise affirme que proposer ce service intermédiaire peut avoir du sens pour les plateformes interactives comme les réseaux sociaux.

Il est cependant urgent de protéger les enfants contre les abus sexuels en ligne et, à mesure que ces préoccupations recoupent le débat plus large sur le cryptage, la détermination d’Apple à refuser de mettre en œuvre l’analyse des données continuera d’être mise à l’épreuve.

Lisez l’échange complet entre Heat Initiative et Apple sur WIRED. WIRED a expurgé les informations personnelles sensibles pour protéger la confidentialité des expéditeurs et des destinataires.

Cette histoire a été initialement publiée sur filaire.com.

Source-147