Le drone tueur russe en Ukraine fait craindre l’IA dans la guerre

Mais les drones ont également mis en évidence une vulnérabilité clé dans l’invasion russe, qui entre maintenant dans sa troisième semaine. Les forces ukrainiennes ont utilisé un drone de fabrication turque télécommandé appelé TB2 avec un grand effet contre les forces russes, tirant des missiles guidés sur des lanceurs de missiles et des véhicules russes. Le drone de la taille d’un parapente, qui repose sur un petit équipage au sol, est lent et ne peut pas se défendre, mais il s’est avéré efficace contre une campagne aérienne russe étonnamment faible.

Cette semaine, l’administration Biden a également déclaré qu’elle fournirait à l’Ukraine une petite munition de vagabondage de fabrication américaine appelée Switchblade. Ce drone à usage unique, qui est équipé d’explosifs, de caméras et de systèmes guidés, a des capacités autonomes mais dépend d’une personne pour prendre des décisions sur les cibles à engager.

Mais Bendett se demande si la Russie lancerait un drone propulsé par l’IA avec une autonomie avancée dans un environnement aussi chaotique, en particulier compte tenu de la mauvaise coordination de la stratégie aérienne globale du pays. « L’armée russe et ses capacités sont maintenant mises à rude épreuve en Ukraine », dit-il. « Si la [human] les forces terrestres avec toutes leurs collectes d’informations sophistiquées ne peuvent pas vraiment donner un sens à ce qui se passe sur le terrain, alors comment un drone pourrait-il ? »

Plusieurs autres experts militaires remettent en question les prétendues capacités du KUB-BLA.

« Les entreprises qui produisent ces drones errants parlent de leurs caractéristiques autonomes, mais souvent l’autonomie implique des corrections de vol et des manœuvres pour atteindre une cible identifiée par un opérateur humain, et non l’autonomie de la manière dont la communauté internationale définirait une arme autonome », explique Michael. Horowitz, professeur à l’Université de Pennsylvanie, qui suit la technologie militaire.

Malgré ces incertitudes, la question de l’IA dans les systèmes d’armes est devenue controversée ces derniers temps car la technologie trouve rapidement sa place dans de nombreux systèmes militaires, par exemple pour aider à interpréter les entrées des capteurs. L’armée américaine soutient qu’une personne devrait toujours prendre des décisions létales, mais les États-Unis s’opposent également à l’interdiction du développement de tels systèmes.

Pour certains, l’apparition du KUB-BLA montre que nous sommes sur une pente glissante vers une utilisation croissante de l’IA dans les armes qui finiront par éliminer les humains de l’équation.

« Nous verrons encore plus de prolifération de ces armes autonomes meurtrières à moins que davantage de pays occidentaux ne commencent à soutenir leur interdiction », déclare Max Tegmark, professeur au MIT et cofondateur du Future of Life Institute, une organisation qui fait campagne contre ces armes.

D’autres, cependant, pensent que la situation qui se déroule en Ukraine montre à quel point il sera vraiment difficile d’utiliser l’IA avancée et l’autonomie.

William Alberque, directeur de la stratégie, de la technologie et du contrôle des armements à l’Institut international d’études stratégiques, a déclaré qu’étant donné le succès remporté par l’Ukraine avec le TB2, les Russes ne sont pas prêts à déployer une technologie plus sophistiquée. « Nous voyons des crétins russes devenir la propriété d’un système auquel ils ne devraient pas être vulnérables. »


Plus de grandes histoires WIRED

Source-144