Cela fait cinq mois que le président Joe Biden a signé un décret pour répondre aux progrès rapides de l’intelligence artificielle. La Maison Blanche franchit aujourd’hui une nouvelle étape dans la mise en œuvre de l’EO avec une politique visant à réglementer l’utilisation de l’IA par le gouvernement fédéral. Les garanties que les agences doivent mettre en place comprennent, entre autres, des moyens d’atténuer le risque de biais algorithmique.
« Je crois que tous les dirigeants du gouvernement, de la société civile et du secteur privé ont le devoir moral, éthique et sociétal de veiller à ce que l’intelligence artificielle soit adoptée et développée de manière à protéger le public des dommages potentiels tout en garantissant que chacun puisse en profiter. ses avantages », a déclaré la vice-présidente Kamala Harris aux journalistes lors d’un appel à la presse.
Harris a annoncé trois exigences contraignantes dans le cadre d’une nouvelle politique du Bureau de la gestion et du budget (OMB). Premièrement, les agences devront s’assurer que les outils d’IA qu’elles utilisent « ne mettent pas en danger les droits et la sécurité du peuple américain ». Ils ont jusqu’au 1er décembre pour s’assurer qu’ils ont mis en place des « garanties concrètes » pour garantir que les systèmes d’IA qu’ils utilisent n’ont pas d’impact sur la sécurité ou les droits des Américains. Dans le cas contraire, l’agence devra cesser d’utiliser un produit d’IA à moins que ses dirigeants ne puissent justifier que la suppression du système aurait un impact « inacceptable » sur les opérations critiques.
Impact sur les droits et la sécurité des Américains
Selon la politique, un système d’IA est considéré comme ayant un impact sur la sécurité s’il « est utilisé ou devrait être utilisé, dans des conditions réelles, pour contrôler ou influencer de manière significative les résultats de » certaines activités et décisions. Il s’agit notamment du maintien de l’intégrité des élections et de l’infrastructure de vote ; contrôler les fonctions de sécurité critiques des infrastructures telles que les systèmes d’eau, les services d’urgence et les réseaux électriques ; véhicules autonomes; et opérer les mouvements physiques des robots dans « un lieu de travail, une école, un logement, un transport, un cadre médical ou d’application de la loi ».
À moins qu’elles ne disposent de garanties appropriées ou qu’elles puissent justifier leur utilisation, les agences devront également abandonner les systèmes d’IA qui portent atteinte aux droits des Américains. Les objectifs que la politique prétend avoir un impact sur les droits définis incluent la police prédictive ; surveillance des médias sociaux pour les forces de l’ordre ; détecter le plagiat dans les écoles ; bloquer ou limiter la parole protégée ; détecter ou mesurer les émotions et les pensées humaines ; vérification préalable à l’emploi; et « reproduire l’image ou la voix d’une personne sans son consentement exprès ».
En matière d’IA générative, la politique stipule que les agences doivent évaluer les avantages potentiels. Ils doivent également tous « établir des garanties et des mécanismes de surveillance adéquats qui permettent à l’IA générative d’être utilisée au sein de l’agence sans présenter de risque excessif ».
Exigences de transparence
La deuxième exigence obligera les agences à faire preuve de transparence sur les systèmes d’IA qu’elles utilisent. « Aujourd’hui, le président Biden et moi exigeons que chaque année, les agences gouvernementales américaines publient en ligne une liste de leurs systèmes d’IA, une évaluation des risques que ces systèmes pourraient poser et comment ces risques sont gérés », a déclaré Harris.
Dans le cadre de cet effort, les agences devront publier le code, les modèles et les données d’IA appartenant au gouvernement, à condition que cela ne nuise pas au public ou aux opérations gouvernementales. Si une agence ne peut pas divulguer des cas d’utilisation spécifiques de l’IA pour des raisons de sensibilité, elle devra quand même communiquer des mesures.
Enfin et surtout, les agences fédérales devront exercer une surveillance interne de leur utilisation de l’IA. Cela implique que chaque département nomme un responsable de l’IA pour superviser toute l’utilisation de l’IA par une agence. « Il s’agit de garantir que l’IA est utilisée de manière responsable, en sachant que nous devons avoir des hauts dirigeants au sein de notre gouvernement qui sont spécifiquement chargés de superviser l’adoption et l’utilisation de l’IA », a noté Harris. De nombreuses agences devront également mettre en place des conseils de gouvernance de l’IA d’ici le 27 mai.
Le vice-président a ajouté que des personnalités éminentes des secteurs public et privé (notamment des défenseurs des droits civiques et des informaticiens) avaient contribué à façonner la politique aux côtés de dirigeants d’entreprises et de juristes.
L’OMB suggère qu’en adoptant ces mesures de protection, la Transportation Security Administration pourrait devoir permettre aux voyageurs des compagnies aériennes de se désinscrire des analyses de reconnaissance faciale sans perdre leur place dans la file d’attente ni subir de retard. Cela suggère également qu’il devrait y avoir une surveillance humaine sur des éléments tels que la détection des fraudes par l’IA et les décisions en matière de diagnostic dans le système de santé fédéral.
Comme vous pouvez l’imaginer, les agences gouvernementales utilisent déjà les systèmes d’IA de diverses manières. La National Oceanic and Atmospheric Administration travaille sur des modèles d’intelligence artificielle pour l’aider à prévoir avec plus de précision les conditions météorologiques extrêmes, les inondations et les incendies de forêt, tandis que la Federal Aviation Administration utilise un système pour aider à gérer le trafic aérien dans les principales zones métropolitaines afin d’améliorer les temps de trajet.
« L’IA présente non seulement un risque, mais aussi une formidable opportunité d’améliorer les services publics et de progresser sur les défis sociétaux tels que la lutte contre le changement climatique, l’amélioration de la santé publique et la promotion d’opportunités économiques équitables », a déclaré la directrice de l’OMB, Shalanda Young, aux journalistes. « Lorsqu’elle est utilisée et supervisée de manière responsable, l’IA peut aider les agences à réduire les temps d’attente pour les services gouvernementaux essentiels afin d’améliorer la précision et d’élargir l’accès aux services publics essentiels. »
Cette politique est la dernière d’une série d’efforts visant à réglementer le domaine en évolution rapide de l’IA. Alors que l’Union européenne a adopté un vaste ensemble de règles pour l’utilisation de l’IA dans le bloc et que des projets de loi fédéraux sont en préparation, les efforts visant à réglementer l’IA aux États-Unis ont adopté une approche plus disparate au niveau des États. Ce mois-ci, l’Utah a adopté une loi pour protéger les consommateurs contre la fraude liée à l’IA. Au Tennessee, la loi Ensuring Likeness Voice and Image Security Act (alias Elvis Act — sérieusement) est une tentative de protéger les musiciens contre les deepfakes, c’est-à-dire le clonage de leurs voix sans autorisation.