Les États-Unis et le Royaume-Uni signent un pacte sur l’IA sur le modèle des accords de partage d’informations

LagartoFilm/Dreamstime

Les États-Unis et le Royaume-Uni ont signé un accord historique sur l’intelligence artificielle, alors que les alliés deviennent les premiers pays à coopérer formellement sur la manière de tester et d’évaluer les risques liés aux modèles d’IA émergents.

L’accord, signé lundi à Washington par la ministre britannique des Sciences Michelle Donelan et la secrétaire américaine au Commerce Gina Raimondo, précise comment les deux gouvernements mettront en commun leurs connaissances techniques, leurs informations et leurs talents en matière de sécurité de l’IA.

L’accord représente le premier accord bilatéral sur la sécurité de l’IA dans le monde et intervient alors que les gouvernements militent en faveur d’une plus grande réglementation des risques existentiels liés aux nouvelles technologies, comme leur utilisation dans des cyberattaques dommageables ou la conception d’armes biologiques.

« L’année prochaine, nous devrons vraiment agir rapidement, car la prochaine génération de [AI] des modèles sortent, qui pourraient complètement changer la donne, et nous ne connaissons pas encore toutes les capacités qu’ils offriront », a déclaré Donelan au Financial Times.

L’accord permettra notamment au nouvel AI Safety Institute (AISI) britannique, créé en novembre, et à son équivalent américain, qui n’a pas encore commencé ses travaux, d’échanger leurs expertises via le détachement de chercheurs des deux pays. Les instituts travailleront également ensemble sur la manière d’évaluer de manière indépendante les modèles d’IA privés construits par OpenAI et Google.

Ce partenariat s’inspire de celui entre le Government Communications Quarters (GCHQ) du Royaume-Uni et la National Security Agency des États-Unis, qui travaillent en étroite collaboration sur les questions liées au renseignement et à la sécurité.

« Le fait que les États-Unis, une grande puissance de l’IA, signent cet accord avec nous, le Royaume-Uni, en dit long sur la façon dont nous ouvrons la voie en matière de sécurité de l’IA », a déclaré Donelan.

Elle a ajouté que, étant donné que bon nombre des sociétés d’IA les plus avancées étaient actuellement basées aux États-Unis, l’expertise du gouvernement américain était essentielle à la fois pour comprendre les risques de l’IA et pour obliger les entreprises à respecter leurs engagements.

Cependant, Donelan a insisté sur le fait que, malgré les recherches menées sur la sécurité de l’IA et la mise en place de garde-corps, le Royaume-Uni n’envisageait pas de réglementer cette technologie de manière plus large à court terme, car elle évoluait trop rapidement.

La situation contraste avec celle d’autres pays et régions. L’UE a adopté sa loi sur l’IA, considérée comme le régime le plus strict au monde en matière d’utilisation de l’IA. Le président américain Joe Biden a publié un décret ciblant les modèles d’IA susceptibles de menacer la sécurité nationale. La Chine a publié des lignes directrices visant à garantir que cette technologie ne remette pas en cause son régime de censure de longue date.

Raimondo a déclaré que l’IA était « la technologie déterminante de notre génération ».

« Ce partenariat va accélérer le travail de nos deux instituts sur l’ensemble des risques, que ce soit pour notre sécurité nationale ou pour notre société dans son ensemble », a-t-elle déclaré.

« Notre partenariat montre clairement que nous ne fuyons pas ces préoccupations, mais que nous les affrontons. Grâce à notre collaboration, nos instituts acquerront une meilleure compréhension des systèmes d’IA, mèneront des évaluations plus robustes et publieront des orientations plus rigoureuses.

L’AISI, soutenue par le gouvernement britannique et présidée par l’investisseur technologique et entrepreneur Ian Hogarth, a embauché des chercheurs tels que Geoffrey Irving de Google DeepMind et Chris Summerfield de l’Université d’Oxford pour commencer à tester des modèles d’IA existants et inédits.

OpenAI, Google DeepMind, Microsoft et Meta font partie des groupes technologiques qui ont signé des engagements volontaires pour soumettre leurs derniers modèles d’IA générative à l’examen de l’AISI britannique, créée à la suite du Sommet britannique sur la sécurité de l’IA à Bletchley Park.

L’institut est un élément clé de l’ambition du Premier ministre Rishi Sunak de voir le Royaume-Uni jouer un rôle central dans la lutte contre le développement de l’IA.

Les tests se sont concentrés sur les risques liés à une mauvaise utilisation de la technologie, y compris la cybersécurité, en s’appuyant sur l’expertise du Centre national de cybersécurité du GCHQ, selon une personne ayant une connaissance directe du sujet.

Donelan a déclaré qu’elle et Raimondo prévoyaient de discuter des défis communs, tels que l’impact de l’IA sur les élections à venir cette année. Le ministre des Sciences a ajouté qu’ils discuteraient également de la nécessité d’une infrastructure informatique pour l’IA, du « partage de nos compétences et de la manière dont nous pouvons approfondir notre collaboration en général pour en faire bénéficier le public ».

© 2024 The Financial Times Ltd. Tous droits réservés. Ne pas être redistribué, copié ou modifié de quelque manière que ce soit.

Source-147