Le projet de l’UE visant à forcer les applications de messagerie à rechercher des CSAM risque de générer des millions de faux positifs, préviennent les experts

Une initiative controversée des législateurs de l’Union européenne visant à exiger légalement que les plateformes de messagerie analysent les communications privées des citoyens à la recherche de matériel pédopornographique (CSAM) pourrait conduire à des millions de faux positifs par jour, ont averti jeudi des centaines d’experts en sécurité et en confidentialité dans une lettre ouverte.

L’inquiétude suscitée par la proposition de l’UE s’est accrue depuis que la Commission a proposé le plan d’analyse CSAM il y a deux ans – avec des experts indépendants, des législateurs du Parlement européen et même le propre contrôleur de la protection des données du bloc parmi ceux qui tirent la sonnette d’alarme.

La proposition de l’UE exigerait non seulement que les plateformes de messagerie qui reçoivent un ordre de détection CSAM recherchent connu CSAM, mais ils devraient également utiliser des technologies d’analyse de détection non spécifiées pour tenter de détecter les CSAM inconnus et d’identifier les activités de toilettage au fur et à mesure qu’elles se déroulent – ​​conduisant à des accusations de législateurs se livrant à des niveaux de pensée magiques de technosolutionnisme.

Les critiques soutiennent que la proposition demande l’impossible technologiquement et n’atteindra pas l’objectif déclaré de protéger les enfants contre les abus. Au lieu de cela, disent-ils, cela fera des ravages sur la sécurité Internet et la vie privée des utilisateurs Web en obligeant les plateformes à déployer une surveillance globale de tous leurs utilisateurs en déployant des technologies risquées et non éprouvées, telles que l’analyse côté client.

Les experts affirment qu’il n’existe aucune technologie capable d’accomplir ce que la loi exige sans causer bien plus de mal que de bien. Pourtant, l’UE continue malgré tout.

La dernière lettre ouverte aborde les amendements au projet de règlement sur l’analyse CSAM récemment proposé par le Conseil européen, qui, selon les signataires, ne parviennent pas à remédier aux défauts fondamentaux du plan.

Les signataires de la lettre – au nombre de 270 au moment de la rédaction – comprennent des centaines d’universitaires, dont des experts en sécurité bien connus tels que le professeur Bruce Schneier de la Harvard Kennedy School et le Dr Matthew D. Green de l’Université Johns Hopkins, ainsi qu’une poignée de des chercheurs travaillant pour des entreprises technologiques telles qu’IBM, Intel et Microsoft.

Une précédente lettre ouverte (juillet dernier), signée par 465 universitaires, avertissait que les technologies de détection que le projet de loi repose sur le fait d’obliger les plateformes à adopter sont « profondément défectueuses et vulnérables aux attaques » et conduiraient à un affaiblissement significatif des protections vitales fournies d’ici la fin. communications cryptées de bout en bout (E2EE).

Peu de traction pour les contre-propositions

L’automne dernier, les députés européens du Parlement européen se sont unis pour s’opposer à une approche considérablement révisée – qui limiterait l’analyse aux individus et aux groupes déjà soupçonnés d’abus sexuels sur des enfants ; limitez-le aux CSAM connus et inconnus, en supprimant l’obligation de rechercher des informations de toilettage ; et supprimez tout risque pour E2EE en le limitant aux plates-formes qui ne sont pas cryptées de bout en bout. Mais le Conseil européen, l’autre organe co-législatif impliqué dans l’élaboration de la législation européenne, n’a pas encore pris position sur la question, et sa décision influencera la forme finale de la loi.

Le dernier amendement sur la table a été présenté par la présidence belge du Conseil en mars, qui dirige les discussions au nom des représentants des gouvernements des États membres de l’UE. Mais dans la lettre ouverte, les experts préviennent que cette proposition ne parvient toujours pas à remédier aux défauts fondamentaux de l’approche de la Commission, arguant que les révisions créent toujours « des capacités sans précédent de surveillance et de contrôle des utilisateurs d’Internet » et « compromettraient… un avenir numérique sûr pour notre pays ». société et peut avoir d’énormes conséquences sur les processus démocratiques en Europe et au-delà.

Les modifications à discuter dans la proposition modifiée du Conseil incluent une suggestion selon laquelle les ordres de détection peuvent être plus ciblés en appliquant des mesures de catégorisation et d’atténuation des risques, et la cybersécurité et le cryptage peuvent être protégés en garantissant que les plateformes ne sont pas obligées de créer un accès aux données décryptées et en ayant technologies de détection vérifiées. Mais les 270 experts suggèrent que cela revient à contourner les limites d’un désastre en matière de sécurité et de confidentialité.

D’un « point de vue technique, pour être efficace, cette nouvelle proposition portera également complètement atteinte à la sécurité des communications et des systèmes », préviennent-ils. S’appuyer sur une « technologie de détection défectueuse » pour déterminer les cas d’intérêt afin d’envoyer des ordres de détection plus ciblés ne réduira pas le risque que la loi inaugure une ère dystopique de « surveillance massive » des messages des internautes, dans leur analyse.

La lettre aborde également une proposition du Conseil visant à limiter le risque de faux positifs en définissant une « personne d’intérêt » comme un utilisateur qui a déjà partagé du CSAM ou tenté de manipuler un enfant – ce qui devrait se faire via une évaluation automatisée. par exemple, attendre une réponse pour un CSAM connu ou deux pour un CSAM/grooming inconnu avant que l’utilisateur ne soit officiellement détecté comme suspect et signalé au Centre de l’UE, qui traiterait les rapports CSAM.

Des milliards d’utilisateurs, des millions de faux positifs

Les experts préviennent que cette approche risque toujours de conduire à un grand nombre de fausses alarmes.

« Il est très peu probable que le nombre de faux positifs dus à des erreurs de détection soit réduit de manière significative à moins que le nombre de répétitions ne soit si important que la détection cesse d’être efficace. Compte tenu de la grande quantité de messages envoyés sur ces plateformes (de l’ordre des milliards), on peut s’attendre à un très grand nombre de fausses alertes (de l’ordre des millions) », écrivent-ils, soulignant que les plateformes risquent de finir par se faire gifler. avec un ordre de détection peut avoir des millions, voire des milliards d’utilisateurs, comme WhatsApp, propriété de Meta.

«Étant donné qu’il n’y a eu aucune information publique sur les performances des détecteurs qui pourraient être utilisés dans la pratique, imaginons que nous aurions un détecteur pour CSAM et le toilettage, comme indiqué dans la proposition, avec un taux de faux positifs de seulement 0,1 %. (c’est-à-dire qu’une fois sur mille, il classe à tort les non-CSAM comme CSAM), ce qui est bien inférieur à n’importe quel détecteur actuellement connu.

« Étant donné que les utilisateurs de WhatsApp envoient 140 milliards de messages par jour, même si seulement 1 message sur cent était testé par de tels détecteurs, il y aurait 1,4 million de faux positifs chaque jour. Pour réduire les faux positifs à des centaines, il faudrait statistiquement identifier au moins 5 répétitions en utilisant des images ou des détecteurs différents et statistiquement indépendants. Et cela ne concerne que WhatsApp : si l’on considère d’autres plateformes de messagerie, y compris le courrier électronique, le nombre de répétitions nécessaires augmenterait considérablement au point de ne pas réduire efficacement les capacités de partage CSAM.

Une autre proposition du Conseil visant à limiter les ordres de détection aux applications de messagerie jugées « à haut risque » est une révision inutile, de l’avis des signataires, car ils estiment qu’elle continuera probablement à « affecter sans discernement un nombre massif de personnes ». Ici, ils soulignent que seules les fonctionnalités standard, telles que le partage d’images et le chat textuel, sont requises pour l’échange de CSAM – des fonctionnalités largement prises en charge par de nombreux fournisseurs de services, ce qui signifie qu’une catégorisation à haut risque « aura sans aucun doute un impact sur de nombreux services ».

Ils soulignent également que l’adoption d’E2EE est en augmentation, ce qui, selon eux, augmentera la probabilité que les services qui le déploient soient classés comme à haut risque. « Ce nombre pourrait encore augmenter avec les exigences d’interopérabilité introduites par la loi sur les marchés numériques, qui entraîneront la circulation de messages entre les services à faible risque et à haut risque. En conséquence, presque tous les services pourraient être classés comme à haut risque », affirment-ils. (NB : l’interopérabilité des messages est un élément essentiel du DMA de l’UE.)

Une porte dérobée pour la porte dérobée

Quant à la protection du cryptage, la lettre réitère le message que les experts en sécurité et en confidentialité crient à plusieurs reprises aux législateurs depuis des années : « La détection dans les services cryptés de bout en bout sape, par définition, la protection par cryptage ».

« La nouvelle proposition a pour objectif de « protéger la cybersécurité et les données cryptées, tout en gardant les services utilisant le cryptage de bout en bout dans le cadre des ordres de détection ». Comme nous l’avons expliqué précédemment, il s’agit d’un oxymore », soulignent-ils. « La protection conférée par le cryptage de bout en bout implique que personne d’autre que le destinataire prévu d’une communication ne soit en mesure d’obtenir des informations sur le contenu d’une telle communication. Activation des capacités de détection, que ce soit pour les données chiffrées ou pour les données avant qu’elles ne soient chiffrées, viole la définition même de la confidentialité fournie par le cryptage de bout en bout

Ces dernières semaines, les chefs de police de toute l’Europe ont rédigé leur propre déclaration commune – soulevant leurs inquiétudes quant à l’expansion d’E2EE et appelant les plateformes à concevoir leurs systèmes de sécurité de manière à pouvoir toujours identifier les activités illégales et envoyer des rapports sur le contenu des messages aux forces de l’ordre. .

L’intervention est largement considérée comme une tentative de faire pression sur les législateurs pour qu’ils adoptent des lois telles que le règlement sur l’analyse CSAM.

Les chefs de police nient vouloir que le chiffrement soit détourné, mais ils n’expliquent pas exactement quelles solutions techniques ils souhaitent que les plateformes adoptent pour permettre l’« accès légal » recherché. La quadrature du cercle remet une balle très bancale dans le camp des législateurs.

Si l’UE continue sur la voie actuelle – donc en supposant que le Conseil ne change pas de cap, comme les députés l’y ont exhorté – les conséquences seront « catastrophiques », préviennent les signataires de la lettre. « Cela crée un précédent en matière de filtrage d’Internet et empêche les gens d’utiliser certains des rares outils disponibles pour protéger leur droit à une vie privée dans l’espace numérique ; cela aura un effet dissuasif, en particulier sur les adolescents qui dépendent fortement des services en ligne pour leurs interactions. Cela changera la manière dont les services numériques sont utilisés dans le monde et aura probablement un impact négatif sur les démocraties du monde entier.

Une source européenne proche du Conseil n’a pas été en mesure de donner un aperçu des discussions en cours entre les États membres, mais a indiqué qu’une réunion du groupe de travail avait lieu le 8 mai au cours de laquelle ils ont confirmé que la proposition de règlement visant à lutter contre les abus sexuels sur enfants serait discutée.

Source-146