Sun conseil de surveillance de Francisco a récemment voté pour laisser sa police déployer des robots équipés d’explosifs mortels – avant retour en arrière plusieurs semaines plus tard. Aux États-Unis, le vote a déclenché un débat acharné sur la militarisation de la police, mais il soulève pour nous tous des questions fondamentales sur le rôle des robots et de l’IA dans la lutte contre le crime, sur la manière dont les décisions policières sont prises et, en fait, sur le but même de notre politique criminelle. les systèmes judiciaires. Au Royaume-Uni, les agents opèrent selon le principe du « maintien de l’ordre par consentement » plutôt que par la force. Mais selon l’enquête 2020 sur la criminalité pour l’Angleterre et le Pays de Galles, la confiance du public dans la police est passée de 62 % en 2017 à 55 %. Un sondage récent a demandé aux Londoniens si le Met était institutionnellement sexiste et raciste. Près des deux tiers ont répondu « probablement » ou « certainement ».
Ce n’est peut-être pas surprenant, étant donné les cas très médiatisés de crimes commis par des policiers tels que Wayne Couzens, qui a assassiné Sarah Everard, et David Carrick, qui a récemment plaidé coupable à 49 infractions, dont le viol et l’agression sexuelle.
Le nouveau commissaire, Mark Rowley, a déclaré que « nous devons nous préparer à des histoires plus douloureuses » et a averti que deux ou trois officiers par semaine devraient comparaître devant le tribunal pour des accusations criminelles dans les mois à venir. Mais que se passerait-il si le problème des services de police allait au-delà des soi-disant « pommes pourries », au-delà même de la culture et des politiques qui permettent à la discrimination de prospérer sans contrôle ? Et si c’était aussi intégré dans la façon dont les êtres humains prennent réellement des décisions ?
Le maintien de l’ordre nécessite des centaines de jugements chaque jour, souvent dans des conditions de pression et d’incertitude extrêmes : qui et où surveiller, quels cas et quelles victimes prioriser, qui croire et quelles pistes d’enquête suivre. Comme l’explique Malcolm Gladwell dans Blink, ces décisions rapides – souvent décrites comme des « intuitions » – sont informées par nos expériences sociales et émotionnelles individuelles, mais aussi par les préjugés que nous avons tous intériorisés de la société au sens large, tels que le racisme, le sexisme, l’homophobie et la transphobie.
L’intelligence artificielle pourrait-elle donc offrir une voie plus juste et plus efficace pour la police du XXIe siècle ? Il existe globalement deux types d’IA : l' »IA étroite », qui peut effectuer des tâches spécifiques telles que la reconnaissance d’images, et l' »IA à usage général », qui rend des jugements et des décisions beaucoup plus complexes s’étendant à toutes sortes de domaines. L’IA à usage général repose sur l’apprentissage en profondeur – absorbant d’énormes quantités de données et les utilisant pour ajuster et améliorer continuellement les performances, et a le potentiel de prendre en charge de plus en plus de tâches que les humains effectuent au travail. ChatGPT, un modèle de traitement du langage à la pointe de la technologie qui a la capacité d’écrire des documents de recherche, des articles et même des poèmes en quelques secondes, en est le dernier exemple pour captiver l’imagination du public.
L’IA peut déjà parcourir des millions d’images et analyser de grandes quantités de publications sur les réseaux sociaux afin d’identifier et de localiser des suspects potentiels. En s’appuyant sur d’autres types de données, cela pourrait également aider à prédire les moments et les lieux où le crime est le plus susceptible de se produire. Dans des cas particuliers, il pourrait tester des hypothèses et filtrer les erreurs, permettant aux agents de se concentrer sur les pistes d’enquête les plus justifiées par les preuves disponibles.
Des décisions plus rapides, plus justes et fondées sur des preuves pour une fraction du coût semblent certes attrayantes, mais premières recherches invite à la prudence. La soi-disant «police prédictive» utilise des informations historiques pour identifier d’éventuels futurs auteurs et victimes, mais des études ont montré que les données sources de ce type de modélisation peuvent être truffées d’idées préconçues, générant, par exemple, des résultats qui classent les personnes de couleur comme disproportionnellement » dangereux » ou « anarchique ». Une société Rand 2016 étude a conclu que la « carte thermique » de Chicago des crimes violents anticipés n’a pas réussi à réduire la violence armée, mais a conduit à davantage d’arrestations dans les quartiers à faible revenu et multiraciaux.
Plus profondément, l’IA est conçue pour atteindre les objectifs que nous lui fixons. Ainsi, comme le professeur Stuart Russell l’a averti dans son Conférences Reith 2021toutes les tâches doivent être soigneusement définies dans un cadre qui profite à l’humanité de peur que, comme dans L’apprenti sorcier, l’ordre d’aller chercher de l’eau ne se traduise par une inondation imparable.
Nous finirons peut-être par apprendre à éliminer les préjugés et à éviter les conséquences perverses, mais cela suffira-t-il ? Comme l’a observé le professeur Batya Friedman de l’école d’information de l’Université de Washington : « La justice est plus qu’une bonne décision. C’est un processus d’êtres humains témoignant les uns des autres, se reconnaissant, se rendant compte les uns des autres, se restaurant les uns les autres.
Au lieu de débattre de ce que l’IA pourra ou ne pourra pas faire à l’avenir, nous devrions nous demander ce que nous attendons de notre système pénal et judiciaire, et comment l’IA pourrait nous aider à y parvenir. Il est peu probable que nos ambitions soient réalisées simplement en remplaçant les officiers par des ordinateurs – mais pensez à ce qui pourrait être réalisé dans une équipe homme-machine, où chacun apprend de l’autre et ajoute de la valeur à l’autre. Et si nous soumettions les êtres humains au même examen minutieux que nous plaçons à juste titre sur l’IA, exposant nos préjugés et nos hypothèses à un défi continu et constructif ? Et si l’IA pouvait aider à accomplir des tâches répétitives et gourmandes en ressources, offrant aux policiers ce que le professeur Eric Topol, écrivant sur la révolution de l’IA en médecine, a appelé le « cadeau du temps » ? Cela leur permettrait de traiter à la fois les victimes et les accusés avec la dignité que seuls les humains peuvent incarner et que tous les membres de la société méritent.
Cela gagnerait peut-être la confiance et le consentement du public dont dépendent vraiment les services de police.
Jo Callaghan est un stratège spécialisé dans l’avenir du travail et auteur du premier roman policier In the Blink of an Eye, publié par Simon & Schuster.
Lectures complémentaires
La vie 3.0 : Être humain à l’ère de l’intelligence artificielle par Max Tegmark (Pingouin, 10,99 £)
Clignoter par Malcolm Gladwell (Pingouin, 10,99 £)
La philosophie politique de l’IA par Mark Coeckelbergh (Polity, 16,99 £)