Avant une réunion entre le vice-président Kamala Harris et les dirigeants des quatre principales sociétés américaines de technologie de l’IA – Alphabet, OpenAI, Anthropic et Microsoft – l’administration Biden a annoncé jeudi une vaste série d’actions planifiées pour aider à atténuer certains des risques que ces technologies émergentes poser au public américain. Cela comprend 140 millions de dollars pour lancer sept nouveaux centres de R&D sur l’IA dans le cadre de la National Science Foundation, obtenir des engagements des principales entreprises d’IA pour participer à une « évaluation publique » de leurs systèmes d’IA à DEFCON 31 et ordonner au Bureau de la gestion et du budget ( OMB) pour rédiger des orientations politiques à l’intention des employés fédéraux.
« L’administration Biden Harris a pris les devants sur ces questions bien avant que ces nouveaux produits d’IA génératifs ne soient lancés l’automne dernier », a déclaré mercredi un haut responsable de l’administration lors d’un appel aux journalistes. L’administration a dévoilé son « plan directeur » de la déclaration des droits de l’IA en octobre dernier, qui visait à « aider à guider la conception, le développement et le déploiement de l’intelligence artificielle (IA) et d’autres systèmes automatisés afin qu’ils protègent les droits du public américain », par un communiqué de presse de la Maison Blanche.
« A une époque d’innovation rapide, il est essentiel que nous clarifiions les valeurs que nous devons promouvoir et le bon sens que nous devons protéger », a poursuivi le responsable de l’administration. « Avec [Thursday’s announcement] et le modèle d’une déclaration des droits de l’IA, nous avons donné aux entreprises, aux décideurs et aux personnes qui construisent ces technologies, des moyens clairs d’atténuer les risques [to consumers]. »
Bien que le gouvernement fédéral ait déjà le pouvoir de protéger les citoyens et de tenir les entreprises responsables, comme l’a démontré la FTC lundi, « le gouvernement fédéral peut faire beaucoup pour s’assurer que nous obtenons la bonne IA », a ajouté le responsable – comme trouvé sept nouveaux Instituts nationaux de recherche sur l’IA dans le cadre de la NSF. Ils agiront pour collaborer aux efforts de recherche du milieu universitaire, du secteur privé et du gouvernement afin de développer une éthique et une fiabilité dans des domaines allant du climat, de l’agriculture et de l’énergie à la santé publique, à l’éducation et à la cybersécurité. »
« Nous avons également besoin d’entreprises et d’innovateurs pour être nos partenaires dans ce travail », a déclaré le responsable de la Maison Blanche. « Les entreprises technologiques ont la responsabilité fondamentale de s’assurer que leurs produits sont sûrs et sécurisés et qu’ils protègent les droits des personnes avant qu’ils ne soient déployés ou rendus publics demain. »
À cette fin, le vice-président doit rencontrer des dirigeants technologiques à la Maison Blanche jeudi pour ce qui devrait être une « discussion franche sur les risques que nous voyons dans le développement actuel et à court terme de l’IA », a déclaré le responsable. « Nous visons également à souligner l’importance de leur rôle dans l’atténuation des risques et la promotion de l’innovation responsable, et discuterons de la manière dont nous pouvons travailler ensemble pour protéger le peuple américain des dommages potentiels de l’IA afin qu’il puisse profiter des avantages de ces nouveaux technologie. »
L’administration a également annoncé qu’elle avait obtenu un « engagement indépendant » de plus d’une demi-douzaine de sociétés d’IA de premier plan – Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI et Stability AI – pour soumettre leurs systèmes d’IA à une évaluation publique à DEFCON 31 (10-13 août). Là, des milliers de participants pourront fouiller et pousser dans ces modèles pour voir s’ils correspondent aux principes et pratiques énoncés par l’administrateur Biden du Blueprint. Enfin, l’OMB publiera des directives aux employés fédéraux dans les mois à venir concernant l’utilisation officielle de la technologie et aidera à établir des politiques spécifiques à suivre par les agences, et permettra aux commentaires du public avant que ces politiques ne soient finalisées.
« Ce sont de nouvelles étapes importantes pour sortir une innovation responsable et pour s’assurer que l’IA améliore la vie des gens, sans mettre en danger les droits et la sécurité », a noté le responsable.