Clearview AI, la firme de reconnaissance faciale louche qui prétend avoir contrats décrochés avec des flics fédéraux, étatiques et locaux à travers le pays, a décroché un contrat d’environ 50 000 $ avec l’armée américaine pour des lunettes de réalité augmentée.
Signalé pour la première fois par Jack Poulson de Tech Inquiry, les documents d’approvisionnement de l’Air Force montrent qu’elle a attribué un contrat de 49 847 $ à Clearview AI dans le but de «protéger les aérodromes avec la reconnaissance faciale en réalité augmentée; lunettes. » Le contrat est désigné comme faisant partie du programme Small Business Innovation Research (SBIR), ce qui signifie que le contrat de Clearview consiste à déterminer pour l’Air Force si de telles applications sont réalisables.
Bryan Ripple, responsable des médias à l’Air Force Research Laboratory Public Affairs, a déclaré à Gizmodo par e-mail que Clearview mènera une étude de trois mois dans le cadre de laquelle « aucune lunette ou unité n’est livrée sous contrat », ni aucun prototype. Clearview, a-t-il écrit, a stipulé « que le personnel de sécurité est vulnérable pendant que ses mains sont occupées par des scanners et des cartes d’identité » et que des lunettes AR leur permettraient de « rester mains libres et prêts pendant cette période ».
« Les lunettes de réalité augmentée (AR) de Clearview AI effectuent un balayage de reconnaissance faciale pour vérifier les arrière-plans et empêcher les personnes non autorisées d’entrer dans les bases et les lignes de vol », a écrit Ripple. «Cet appareil portable de vérification d’identité 100% mains libres permet aux défenseurs de garder leurs armes à portée de main, d’augmenter l’impasse et la distance sociale et de confirmer l’accès autorisé à la base à l’aide d’une biométrie faciale rapide et précise tout en gardant les menaces à distance. Les résultats sont une sécurité améliorée aux points de contrôle d’entrée et pour les bases, une vérification d’identité plus rapide sans vérification manuelle des cartes d’identité et des économies de coûts en remplaçant le besoin de grandes installations de caméras permanentes.
Dans un document promotionnel partagé par l’Air Force, Clearview a fait valoir que dans le temps qu’il faut pour scanner une carte d’identité au point d’entrée d’une installation militaire, « Un criminel ou un terroriste peut tirer une arme à feu, un couteau ou une arme pendant ce moment bref mais critique, tuer le Defender et accéder à la base. Ils ont fait valoir que les lunettes AR augmenteraient la «distance de sécurité», gagneraient du temps aux gardes tout en contrôlant les volumes élevés de trafic et leur permettre de se tenir à distance de toute personne contagieuse par des maladies.
Un tel système ne serait pas très éloigné de la façon dont la technologie de Clearview fonctionne déjà. C’est juste monté sur le visage. Les utilisateurs téléchargent des photos dans une application qui est ensuite comparée à la base de données de visages de l’entreprise. En 2020, le Le New York Times a rapporté que l’application de Clearview contenait du code qui permettrait l’appariement avec des lunettes AR, ce qui signifie théoriquement que les utilisateurs pourraient se promener en identifiant toute personne dont l’image avait déjà été obtenue par les opérations de grattage de données de Clearview.
Clearview a fait l’objet d’une controverse massive à peu près partout où il apparaît, et pour une bonne raison. le Huffington Post a rapporté que son fondateur, Hoan Ton-That, et d’autres personnes qui travaillaient pour l’entreprise avaient des « liens profonds et de longue date » avec des extrémistes d’extrême droite. La question de savoir si Clearview a obtenu légalement les photos qu’elle utilise pour remplir ses bases de données et former ses algorithmes de reconnaissance faciale est également un sujet de controverse. Ton-That s’est vanté que ses bases de données contiennent des milliards de photos extraites du Web public. Bien que le téléchargement en masse de données accessibles au public soit légal aux États-Unis, certains États ont adopté des lois sur la confidentialité de la biométrie, notamment l’Illinois, où Clearview lutte contre une Procès soutenu par l’ACLU affirmant que l’entreprise était légalement tenue d’obtenir le consentement des personnes inscrites dans sa base de données.
Dans d’autres pays, Clearview s’est heurté à une opposition plus sévère. En mai 2021, les régulateurs en France, en Autriche, en Italie, en Grèce et au Royaume-Uni l’ont collectivement accusé d’avoir enfreint les lois européennes sur la confidentialité des données. Vue dégagée a complètement quitté le Canada en 2020 après deux enquêtes fédérales sur la protection de la vie privée, et le commissaire canadien à la protection de la vie privée Daniel Therrien dit en février 2021 que la technologie de Clearview enfreignait les lois exigeant le consentement pour la collecte de données biométriques et constituait une surveillance de masse illégale. Les autorités canadiennes ont exigé que Clearview supprime les images de ses ressortissants de sa base de données, avec les régulateurs australiens émettant des demandes similaires plus tard cette année.
Ton-That a insisté dans une déclaration par e-mail à Gizmodo sur le fait que la technologie testée avec l’Air Force n’inclut pas l’accès à ses trésors d’images grattées.
« Nous apprécions l’US Air Force et sa position dans la défense de la sécurité et des intérêts de la nation », a écrit Ton-That. « Nous recherchons et développons continuellement de nouvelles technologies, processus et plates-formes pour relever les défis de sécurité actuels et futurs, et attendons avec impatience toutes les opportunités qui nous rapprocheraient de l’Air Force dans ce domaine. »
« Cette technologie particulière reste en R&D, l’objectif final étant de tirer parti des capacités émergentes pour améliorer la sécurité globale », a-t-il ajouté. « La mise en œuvre est conçue autour d’un ensemble de données spécifique et contrôlé, plutôt que l’ensemble de données d’image 10B de Clearview AI. Une fois réalisée, nous pensons que cette technologie conviendra parfaitement à de nombreuses situations de sécurité.
La reconnaissance faciale est déjà utilisée par les flics et les fédéraux. Clearview, par exemple, a signé des contrats avec le FBI et l’US Customs and Immigration Enforcement. C’est malgré la réputation actuelle de la technologie de reconnaissance faciale d’être non fiable, facilement abusé pour le profilage racial, et généralement envahissant. L’idée que la police puisse mettre la main sur des lunettes qui leur permettraient de comparer tous ceux qu’ils voient à une base de données de reconnaissance faciale, par exemple, est assez dystopique.
L’armée américaine a manifesté son intérêt pour la RA pour des raisons évidentes – les nombreuses façons dont les superpositions numériques pourraient améliorer la productivité, l’efficacité et la létalité des troupes – mais la technologie en est à ses balbutiements. L’armée de l’air teste actuellement l’utilisation de lunettes AR pour aider à la formation et aux opérations de maintenance des aéronefs, et il a fait travail de preuve de concept liés à l’entraînement aux armes et aux centres de commandement virtuels. L’année dernière, l’armée américaine a retardé une Programme de 22 milliards de dollars pour équiper les soldats de lunettes AR, le système d’augmentation visuelle intégré (IVAS), affirmant qu’il ne serait pas prêt à être déployé avant au moins l’automne 2022.
IVAS est basé sur Microsoft HoloLens 2 et est testé depuis 2019. Selon la tâche et l’objectif, il peut être utilisé pour la formation, la traduction linguistique en direct, la reconnaissance faciale, la navigation, la prise de conscience de la situation et la projection de lieux ou d’objectifs. Il contient également le type de capteurs thermiques et nocturnes haute résolution qui auraient auparavant été des équipements séparés. Bloomberg a rapporté plus tôt ce mois-ci, cependant, que les évaluations internes du Pentagone l’ont jugée loin d’être prête à être utilisée dans un combat réel et que seulement 5 000 lunettes ont été commandées pour le moment. Les tests pour déterminer si les soldats peuvent compter sur IVAS dans des scénarios de combat ne seront pas effectués avant mai.
Mise à jour : 03/02/2022 à 16h55 HE : Cet article a été mis à jour avec des informations supplémentaires fournies par l’Air Force.