Le Pentagone a utilisé l’IA développée par le projet Maven pour identifier les cibles des frappes aériennes

L’armée américaine a intensifié son utilisation d’outils d’intelligence artificielle après les attaques du Hamas contre Israël le 7 octobre, sur la base d’un nouveau rapport de Bloomberg. Schuyler Moore, directeur de la technologie du Commandement central américain, a déclaré à l’agence de presse que les algorithmes d’apprentissage automatique ont aidé le Pentagone à identifier les cibles de plus de 85 frappes aériennes au Moyen-Orient ce mois-ci.

Les bombardiers et avions de chasse américains ont mené ces frappes aériennes contre sept installations en Irak et en Syrie le 2 février, détruisant entièrement ou au moins endommageant des roquettes, des missiles, des installations de stockage de drones et des centres d’opérations des milices. Le Pentagone avait également utilisé des systèmes d’IA pour trouver des lance-roquettes au Yémen et des combattants de surface en mer Rouge, qu’il avait ensuite détruits au cours de plusieurs frappes aériennes le même mois.

Les algorithmes d’apprentissage automatique utilisés pour affiner les cibles ont été développés dans le cadre du projet Maven, le partenariat aujourd’hui disparu de Google avec le Pentagone. Pour être précis, le projet impliquait l’utilisation de la technologie d’intelligence artificielle de Google par l’armée américaine pour analyser les images de drones et signaler les images en vue d’un examen humain plus approfondi. Cela a provoqué un tollé parmi les employés de Google : des milliers de personnes avaient demandé à l’entreprise de mettre fin à son partenariat avec le Pentagone, et certains ont même complètement démissionné en raison de son implication. Quelques mois après cette protestation des salariés, Google a décidé de ne pas renouveler son contrat, arrivé à échéance en 2019.

Moore a dit Bloomberg que les forces américaines au Moyen-Orient n’ont cessé d’expérimenter l’utilisation d’algorithmes pour identifier des cibles potentielles à l’aide d’images de drones ou de satellites, même après que Google ait mis fin à son implication. L’armée a testé leur utilisation au cours de l’année écoulée lors d’exercices numériques, a-t-elle expliqué, mais elle a commencé à utiliser des algorithmes de ciblage dans des opérations réelles après les attaques du Hamas du 7 octobre. Elle a toutefois précisé que les travailleurs humains vérifiaient et vérifiaient constamment les recommandations cibles des systèmes d’IA. C’est également le personnel humain qui a proposé comment organiser les attaques et quelles armes utiliser. « Il n’y a jamais d’algorithme qui se contente de fonctionner, d’arriver à une conclusion et de passer ensuite à l’étape suivante », a-t-elle déclaré. « Chaque étape impliquant l’IA est complétée par un humain qui s’enregistre à la fin. »

Source-145