Un policier de l’Indiana a démissionné après qu’il a été révélé qu’il utilisait fréquemment la technologie de reconnaissance faciale Clearview AI pour retrouver les utilisateurs de médias sociaux non liés à des crimes.
Selon un communiqué de presse du département de police d’Evansville, il s’agissait clairement d’un « usage abusif » de la technologie controversée d’analyse faciale de Clearview AI, que certaines villes américaines ont interdite, craignant qu’elle donne aux forces de l’ordre un pouvoir illimité pour suivre les gens dans leur vie quotidienne.
Pour aider à identifier les suspects, la police peut scanner ce que Clearview AI décrit sur son site Web comme « le plus grand réseau de reconnaissance faciale au monde ». La base de données regroupe plus de 40 milliards d’images collectées auprès des médias d’information, des sites Web de photos d’identité, des réseaux sociaux publics et d’autres sources ouvertes.
Mais ces analyses doivent toujours être liées à une enquête, et le chef de la police d’Evansville, Philip Smith, a déclaré qu’au lieu de cela, le policier en disgrâce a dissimulé à plusieurs reprises ses recherches personnelles en « utilisant de manière trompeuse un numéro de dossier réel associé à un incident réel » pour échapper à la détection.
Le département de Smith a découvert l’utilisation non autorisée de l’agent après avoir effectué un audit avant de renouveler son abonnement Clearview AI en mars. Cet audit a révélé « une anomalie d’utilisation très élevée du logiciel par un agent dont le rendement du travail n’était pas représentatif du nombre de recherches qu’il avait effectuées ».
Un autre indice de l’abus de l’outil par l’agent était que la plupart des scanners de visage effectués au cours des enquêtes sont « généralement des images en direct ou des images de vidéosurveillance » – des clichés pris dans la nature – a déclaré Smith. Cependant, l’officier qui a démissionné recherchait principalement des images sur les réseaux sociaux, ce qui était un signal d’alarme.
Une enquête a rapidement « révélé clairement que cet officier utilisait Clearview AI » à des « fins personnelles », a déclaré Smith, refusant de nommer l’officier ou de vérifier si les cibles de ces chercheurs avaient été informées.
En conséquence, Smith a recommandé que le ministère licencie l’agent. Cependant, l’officier a démissionné « avant que la Commission du mérite de la police puisse prendre une décision finale sur la question », a déclaré Smith.
Éviter facilement les fonctionnalités de conformité intégrées de Clearview AI
Clearview AI présente le réseau d’images faciales comme une ressource de sécurité publique, promettant d’aider les forces de l’ordre à procéder à des arrestations plus tôt tout en s’engageant à utiliser la technologie « éthique et responsable ».
Sur son site Web, la société déclare comprendre que « les organismes chargés de l’application de la loi ont besoin de fonctionnalités de conformité intégrées pour une surveillance, une responsabilité et une transparence accrues au sein de leurs juridictions, telles que des outils d’administration avancés, ainsi que des tableaux de bord, des rapports et des rapports conviviaux. outils de métriques. »
Pour « aider à dissuader et détecter les recherches inappropriées », son site Web indique qu’un numéro de dossier et un type de crime sont requis, et « chaque agence doit avoir un administrateur désigné qui peut avoir un aperçu détaillé de l’historique de recherche de son organisation ».
Il semble qu’aucune de ces garanties n’ait empêché le flic de l’Indiana de scanner à plusieurs reprises les images des réseaux sociaux pour des raisons personnelles non divulguées, approuvant apparemment sans discussion le numéro de dossier et le type de crime requis et passant inaperçu auprès de l’administrateur de son agence. Cet incident pourrait avoir des implications plus larges aux États-Unis, où sa technologie a été largement utilisée par la police pour effectuer près d’un million de recherches, a déclaré l’année dernière Hoan Ton-That, PDG de Clearview AI, à la BBC.
En 2022, Ars a rapporté que Clearview AI avait déclaré aux investisseurs qu’elle avait l’ambition de collecter plus de 100 milliards d’images de visages, garantissant ainsi que « presque tout le monde dans le monde sera identifiable ». Alors que les préoccupations en matière de confidentialité concernant cette technologie controversée augmentaient, le sujet a fait l’objet de vifs débats. Facebook a décidé d’empêcher l’entreprise de gratter les visages sur sa plate-forme, et l’ACLU a remporté un règlement interdisant à Clearview AI de conclure des contrats avec la plupart des entreprises. Mais le gouvernement américain a conservé l’accès à la technologie, y compris « des centaines de forces de police à travers les États-Unis », a déclaré Ton-That à la BBC.
La plupart des organismes chargés de l’application des lois hésitent à discuter en détail de leurs tactiques Clearview AI, a rapporté la BBC, de sorte qu’il est souvent difficile de savoir qui a accès et pourquoi. Mais la police de Miami a confirmé qu' »elle utilise ce logiciel pour tout type de crime », a rapporté la BBC.
Aujourd’hui, au moins un service de police de l’Indiana a confirmé qu’un agent pouvait sournoisement abuser de la technologie et effectuer des analyses faciales non approuvées avec une apparente facilité.
Selon Kashmir Hill, le journaliste qui a exposé la technologie de Clearview AI, le flic en disgrâce suivait les traces des « milliardaires, des investisseurs de la Silicon Valley et de quelques célébrités de grande puissance » qui ont obtenu un accès anticipé à la technologie Clearview AI en 2020 et l’ont envisagée. un « super pouvoir sur leur téléphone, leur permettant de mettre un nom sur un visage et de trouver des photos en ligne de quelqu’un dont la personne ne se rend peut-être même pas compte qu’elles étaient en ligne ».
Les défenseurs ont averti que des lois plus strictes sur la confidentialité sont nécessaires pour empêcher les forces de l’ordre d’abuser du réseau de Clearview AI, que Hill a décrit comme « un Shazam pour les gens ».
Smith a déclaré que l’officier n’avait pas respecté les directives du département en effectuant des analyses de visage inappropriées.
« Pour garantir que le logiciel est utilisé aux fins prévues, nous avons mis en place des directives opérationnelles internes et adhérons aux conditions de service de Clearview AI », a déclaré Smith. « Les deux ont un langage qui indique clairement qu’il s’agit d’un outil à usage officiel et qu’il ne doit pas être utilisé à des fins personnelles.