OpenAI, Google, Anthropic et d’autres sociétés développant l’IA générative continuent d’améliorer leurs technologies et de publier de meilleurs modèles de langage de plus en plus performants. Afin de créer une approche commune pour une évaluation indépendante de la sécurité de ces modèles au fur et à mesure de leur sortie, les gouvernements britannique et américain ont signé un protocole d’accord. Ensemble, l’AI Safety Institute du Royaume-Uni et son homologue américain, annoncé par la vice-présidente Kamala Harris mais qui n’a pas encore commencé ses opérations, développeront des suites de tests pour évaluer les risques et garantir la sécurité des « modèles d’IA les plus avancés ». «
Ils prévoient de partager des connaissances techniques, des informations et même du personnel dans le cadre du partenariat, et l’un de leurs objectifs initiaux semble être de réaliser un exercice de test conjoint sur un modèle accessible au public. La ministre britannique des Sciences, Michelle Donelan, qui a signé l’accord, a déclaré Le Financial Times qu’ils doivent « vraiment agir rapidement » car ils s’attendent à ce qu’une nouvelle génération de modèles d’IA sorte au cours de l’année prochaine. Ils pensent que ces modèles pourraient « complètement changer la donne », et ils ne savent toujours pas de quoi ils pourraient être capables.
Selon Les temps, ce partenariat est le premier accord bilatéral sur la sécurité de l’IA dans le monde, même si les États-Unis et le Royaume-Uni ont l’intention de s’associer à d’autres pays à l’avenir. « L’IA est la technologie déterminante de notre génération. Ce partenariat va accélérer le travail de nos deux instituts sur tout le spectre des risques, que ce soit pour notre sécurité nationale ou pour notre société dans son ensemble », a déclaré la secrétaire américaine au Commerce, Gina Raimondo. « Notre partenariat montre clairement que nous ne fuyons pas ces préoccupations – nous les affrontons. Grâce à notre collaboration, nos instituts acquerront une meilleure compréhension des systèmes d’IA, mèneront des évaluations plus robustes et publieront des orientations plus rigoureuses. «
Alors que ce partenariat particulier se concentre sur les tests et l’évaluation, les gouvernements du monde entier élaborent également des réglementations pour contrôler les outils d’IA. En mars dernier, la Maison Blanche a signé un décret visant à garantir que les agences fédérales n’utilisent que des outils d’IA qui « ne mettent pas en danger les droits et la sécurité du peuple américain ». Quelques semaines auparavant, le Parlement européen avait approuvé une législation radicale visant à réglementer l’intelligence artificielle. Il interdira « l’IA qui manipule le comportement humain ou exploite les vulnérabilités des gens », « les systèmes de catégorisation biométrique basés sur des caractéristiques sensibles », ainsi que le « grattage non ciblé » de visages à partir d’images de vidéosurveillance et du Web pour créer des bases de données de reconnaissance faciale. De plus, les deepfakes et autres images, vidéos et audio générés par l’IA devront être clairement étiquetés comme tels selon ses règles.