À la recherche d’un Thanksgiving une conversation à table qui n’est pas politique ou sportive professionnelle ? Bon, parlons des robots tueurs. C’est un concept qui, il y a longtemps, est passé des pages de la science-fiction à la réalité, selon la définition lâche que vous utilisez pour « robot ». Les drones militaires ont abandonné la première loi de la robotique d’Asimov – « Un robot ne peut pas blesser un être humain ou, par inaction, permettre à un être humain de se faire du mal » – il y a des décennies.
Le sujet mijote à nouveau ces derniers temps en raison de la perspective croissante de robots tueurs dans les forces de l’ordre nationales. L’un des fabricants de robots les plus connus de l’époque, Boston Dynamics, a soulevé des signaux d’alarme en matière de politique publique lorsqu’il a présenté des images de son robot Spot déployé dans le cadre d’exercices de formation de la police de l’État du Massachusetts sur notre scène en 2019.
Les robots n’étaient pas armés et faisaient plutôt partie d’un exercice conçu pour déterminer comment ils pourraient aider à garder les agents hors de danger lors d’une prise d’otage ou d’une situation terroriste. Mais la perspective de déployer des robots dans des scénarios où la vie des gens est en danger immédiat a suffi à déclencher une enquête de l’ACLU, qui a déclaré à TechCrunch :
Nous avons un besoin urgent de plus de transparence de la part des agences gouvernementales, qui devraient être franches avec le public sur leurs projets de test et de déploiement de nouvelles technologies. Nous avons également besoin de réglementations à l’échelle de l’État pour protéger les libertés civiles, les droits civils et la justice raciale à l’ère de l’intelligence artificielle.
L’année dernière, pendant ce temps, le NYPD a mis fin à un accord avec Boston Dynamics à la suite d’une forte réaction publique, après que des images de Spot aient été déployées en réponse à une invasion de domicile dans le Bronx.
Pour sa part, Boston Dynamics s’est très clairement opposé à la militarisation de ses robots. Le mois dernier, il a signé une lettre ouverte, avec d’autres grandes entreprises Agility, ANYbotics, Clearpath Robotics et Open Robotics, condamnant l’action. Il note :
Nous pensons que l’ajout d’armes à des robots télécommandés ou autonomes, largement accessibles au public et capables de naviguer vers des endroits auparavant inaccessibles où les gens vivent et travaillent, soulève de nouveaux risques de préjudice et de graves problèmes éthiques. Les applications militarisées de ces robots nouvellement capables nuiront également à la confiance du public dans la technologie d’une manière qui nuira aux énormes avantages qu’ils apporteront à la société.
La lettre aurait été, en partie, une réponse au travail de Ghost Robotics avec l’armée américaine. Lorsque des images de l’un de ses propres chiens robotiques ont été diffusées sur Twitter arborant un fusil autonome, la firme de Philadelphie a déclaré à TechCrunch qu’elle avait adopté une position agnostique quant à la manière dont les systèmes sont utilisés par ses partenaires militaires :
Nous ne fabriquons pas les charges utiles. Allons-nous promouvoir et annoncer l’un de ces systèmes d’armes ? Probablement pas. C’est difficile de répondre. Parce que nous vendons aux militaires, nous ne savons pas ce qu’ils en font. Nous n’allons pas dicter à nos clients gouvernementaux comment ils utilisent les robots.
Nous traçons la ligne sur l’endroit où ils sont vendus. Nous ne vendons qu’aux gouvernements américains et alliés. Nous ne vendons même pas nos robots à des entreprises clientes sur des marchés conflictuels. Nous recevons de nombreuses demandes de renseignements sur nos robots en Russie et en Chine. Nous n’expédions pas là-bas, même pour nos entreprises clientes.
Boston Dynamics et Ghost Robotics sont actuellement impliqués dans un procès impliquant plusieurs brevets.
Cette semaine, le site de reportage de la police locale Mission Local a fait état d’une nouvelle inquiétude concernant les robots tueurs – cette fois à San Francisco. Le site note qu’une proposition de politique en cours d’examen par le conseil de surveillance de la ville la semaine prochaine comprend un langage sur les robots tueurs. La « Law Enforcement Equipment Policy » commence par un inventaire des robots actuellement en possession du département de police de San Francisco.
Il y en a 17 en tout – dont 12 fonctionnent. Ils sont en grande partie conçus pour la détection et l’élimination des bombes – c’est-à-dire qu’aucun n’est conçu spécifiquement pour tuer.
« Les robots répertoriés dans cette section ne doivent pas être utilisés en dehors de la formation et des simulations, des appréhensions criminelles, des incidents critiques, des circonstances urgentes, de l’exécution d’un mandat ou lors d’évaluations d’appareils suspects », note la politique. Il ajoute ensuite, plus troublant, « Les robots ne seront utilisés comme option de force mortelle que lorsque le risque de mort pour des membres du public ou des officiers est imminent et l’emporte sur toute autre option de force disponible pour le SFPD. »
En effet, selon le langage, les robots peuvent être utilisés pour tuer afin de potentiellement sauver la vie d’officiers ou du public. Cela semble assez anodin dans ce contexte, peut-être. À tout le moins, cela semble relever de la définition légale de la force meurtrière « justifiée ». Mais de nouvelles préoccupations surgissent dans ce qui semble être un profond changement de politique.
Pour commencer, l’utilisation d’un robot démineur pour tuer un suspect n’est pas sans précédent. En juillet 2016, les policiers de Dallas ont fait exactement cela pour ce que l’on croyait être la première fois dans l’histoire des États-Unis. « Nous n’avons vu aucune autre option que d’utiliser notre robot explosif et de placer un dispositif sur son extension pour qu’il explose là où se trouvait le suspect », a déclaré à l’époque le chef de la police, David Brown.
Deuxièmement, il est facile de voir comment un nouveau précédent pourrait être utilisé dans un scénario CYA, si un robot est intentionnellement ou accidentellement utilisé de cette manière. Troisièmement, et c’est peut-être le plus alarmant, on pourrait imaginer le langage s’appliquant à l’acquisition d’un futur système robotique non uniquement conçu pour la découverte et l’élimination d’explosifs.
Mission Local ajoute que le président du comité des règles du conseil de surveillance de SF, Aaron Peskin, a tenté d’insérer la ligne plus favorable à Asimov, « Les robots ne doivent pas être utilisés comme recours à la force contre qui que ce soit. » Le SFPD a apparemment barré le changement de Peskin et l’a mis à jour dans sa langue actuelle.
La conversation renouvelée autour des robots tueurs en Californie est due, en partie, au projet de loi 481 de l’Assemblée. Promulguée par le gouverneur Gavin Newsom en septembre de l’année dernière, la loi est conçue pour rendre l’action de la police plus transparente. Cela comprend un inventaire du matériel militaire utilisé par les forces de l’ordre.
Les 17 robots inclus dans le document de San Francisco font partie d’une liste plus longue qui comprend également le véhicule blindé Lenco BearCat, des flash-bangs et 15 mitraillettes.
Le mois dernier, la police d’Oakland a déclaré qu’elle ne demanderait pas l’approbation de robots télécommandés armés. Le département a déclaré dans un communiqué :
Le département de police d’Oakland (OPD) n’ajoute pas de véhicules armés à distance au département. L’OPD a participé aux discussions du comité ad hoc avec la commission de police d’Oakland et les membres de la communauté pour explorer toutes les utilisations possibles du véhicule. Cependant, après d’autres discussions avec le chef et l’équipe de direction, le ministère a décidé qu’il ne voulait plus explorer cette option particulière.
La déclaration a suivi la réaction du public.
Le dentifrice est déjà sorti du tube de la première loi d’Asimov. Les robots tueurs sont là. Quant à la deuxième loi – « Un robot doit obéir aux ordres qui lui sont donnés par des êtres humains » – elle est encore largement à notre portée. C’est à la société de déterminer le comportement de ses robots.