Mercredi, le sénateur américain Edward Markey (D-Mass.) et les représentants Ted Lieu (D-Calif.), Don Beyer (D-Va.) et Ken Buck (R-Colo.) ont annoncé une législation bipartite visant à empêcher une système d’intelligence artificielle de prendre des décisions de lancement nucléaire. La Block Nuclear Launch by Autonomous Artificial Intelligence Act interdirait l’utilisation de fonds fédéraux pour le lancement de toute arme nucléaire par un système automatisé sans « contrôle humain significatif ».
« Alors que nous vivons à une ère de plus en plus numérique, nous devons nous assurer que les humains détiennent seuls le pouvoir de commander, de contrôler et de lancer des armes nucléaires, et non des robots », a déclaré Markey dans un communiqué de presse. « C’est pourquoi je suis fier de présenter la loi Block Nuclear Launch by Autonomous Artificial Intelligence. Nous devons tenir les humains au courant des décisions de vie ou de mort d’utiliser la force mortelle, en particulier pour nos armes les plus dangereuses.
Le nouveau projet de loi s’appuie sur la politique existante du département américain de la Défense, qui stipule que dans tous les cas, « les États-Unis maintiendront un humain » au courant « de toutes les actions essentielles pour informer et exécuter les décisions du président d’initier et de mettre fin à l’arme nucléaire. emploi. »
Le nouveau projet de loi vise à codifier le principe du ministère de la Défense dans la loi, et il suit également la recommandation de la Commission de sécurité nationale sur l’intelligence artificielle, qui a appelé les États-Unis à affirmer leur politique selon laquelle seuls les êtres humains peuvent autoriser l’emploi d’armes nucléaires.
« Alors que l’utilisation de l’IA par l’armée américaine peut être appropriée pour renforcer la sécurité nationale, l’utilisation de l’IA pour déployer des armes nucléaires sans chaîne humaine de commandement et de contrôle est imprudente, dangereuse et devrait être interdite », a déclaré Buck dans un communiqué. « Je suis fier de coparrainer cette législation pour garantir que les êtres humains, et non les machines, aient le dernier mot sur les décisions militaires les plus critiques et les plus sensibles. »
Le nouveau projet de loi intervient alors que l’inquiétude grandit quant au potentiel futur de la technologie d’IA générative qui progresse rapidement (et parfois mal comprise et surfaite), ce qui a incité un groupe de chercheurs à appeler à une pause dans le développement de systèmes « plus puissants » que GPT-4 en mars.
Alors que GPT-4 ne craint pas de lancer une frappe nucléaire, un groupe de chercheurs en IA qui évaluent les capacités des grands modèles de langage les plus populaires d’aujourd’hui pour OpenAI craignent que les futurs systèmes d’IA plus avancés ne constituent une menace pour la civilisation humaine. Une partie de cette peur s’est transférée à la population au sens large, malgré les inquiétudes concernant les menaces existentielles de l’IA qui restent controversées dans la communauté élargie de l’apprentissage automatique.
Mis à part les sujets brûlants de la technologie, le nouveau projet de loi fait également partie d’un plan plus large de Markey et Lieu pour éviter l’escalade nucléaire. Le couple a également récemment réintroduit un projet de loi qui interdirait à tout président américain de lancer une frappe nucléaire sans l’autorisation préalable du Congrès. L’objectif global, selon les membres du Congrès, est de réduire le risque « d’Armageddon nucléaire » et d’empêcher la prolifération nucléaire.
Les coparrains de la loi Block Nuclear Launch by Autonomous Artificial Intelligence Act au Sénat comprennent Bernie Sanders (I-Vt.) et Elizabeth Warren (D-Mass.).