Kamala Harris annonce la création d’un AI Safety Institute pour protéger les consommateurs américains

Quelques jours seulement après que le président Joe Biden a dévoilé un décret radical redéfinissant les responsabilités du gouvernement fédéral en ce qui concerne le développement de l’IA, la vice-présidente Kamala Harris a annoncé mardi, lors du sommet britannique sur la sécurité de l’IA, une demi-douzaine d’autres initiatives d’apprentissage automatique que l’administration entreprend. Parmi les faits saillants : la création de l’AI Safety Institute des États-Unis, la première publication d’un projet d’orientation politique sur l’utilisation de l’IA par le gouvernement fédéral et une déclaration sur les applications militaires responsables de la technologie émergente.

« Le président Biden et moi-même pensons que tous les dirigeants du gouvernement, de la société civile et du secteur privé ont le devoir moral, éthique et sociétal de veiller à ce que l’IA soit adoptée et avancée de manière à protéger le public des dommages potentiels et à garantir que tout le monde peut profiter de ses avantages », a déclaré Harris dans ses remarques préparées.

« Tout comme l’IA a le potentiel de faire un bien profond, elle a également le potentiel de causer de graves dommages, allant des cyberattaques basées sur l’IA à une échelle dépassant tout ce que nous avons vu auparavant jusqu’aux armes biologiques formulées par l’IA qui pourraient mettre en danger la vie de millions de personnes. , » dit-elle. Les menaces existentielles que représentent les systèmes d’IA générative étaient un thème central du sommet.

« Pour définir la sécurité de l’IA, nous devons considérer et traiter l’ensemble des risques liés à l’IA : menaces pour l’humanité dans son ensemble, menaces pour les individus, pour nos communautés et nos institutions, et menaces pour nos populations les plus vulnérables », a-t-elle poursuivi. « Pour garantir la sécurité de l’IA, nous devons gérer tous ces dangers. »

À cette fin, Harris a annoncé mercredi que la Maison Blanche, en coopération avec le ministère du Commerce, était en train de créer l’Institut américain de sécurité de l’IA (US AISI) au sein du NIST. Il sera chargé de créer et de publier toutes les lignes directrices, tests de référence, meilleures pratiques, etc. pour tester et évaluer les systèmes d’IA potentiellement dangereux.

Ces tests pourraient inclure les exercices de l’équipe rouge mentionnés par le président Biden dans son EO. L’AISI serait également chargée de fournir des conseils techniques aux législateurs et aux forces de l’ordre sur un large éventail de sujets liés à l’IA, notamment l’identification du contenu généré, l’authentification du contenu enregistré en direct, l’atténuation de la discrimination liée à l’IA et la garantie de la transparence dans son utilisation.

En outre, l’Office of Management and Budget (OMB) s’apprête à publier, pour commentaires du public, le premier projet d’orientation politique de l’administration sur l’utilisation de l’IA par le gouvernement plus tard cette semaine. À l’instar du projet de déclaration des droits de l’IA sur lequel il s’appuie, le projet d’orientation politique décrit les mesures que le gouvernement national peut prendre pour « faire progresser l’innovation responsable en matière d’IA » tout en maintenant la transparence et en protégeant les travailleurs fédéraux d’une surveillance accrue et des suppressions d’emplois. Ce projet de lignes directrices sera à terme utilisé pour établir des garanties pour l’utilisation de l’IA dans un large éventail d’applications du secteur public, notamment les transports, l’immigration, la santé et l’éducation. Il est donc mis à la disposition du public pour commentaires sur ai.gov/input.

Harris a également annoncé lors de son discours que la Déclaration politique sur l’utilisation responsable de l’intelligence artificielle et de l’autonomie publiée par les États-Unis en février a rassemblé à ce jour 30 signataires, qui ont tous accepté un ensemble de normes pour le développement et le déploiement responsables de systèmes d’IA militaire. . Plus que 165 nations à parcourir ! L’administration lance également un hackathon virtuel dans le but d’atténuer les dommages que les fraudeurs téléphoniques et Internet basés sur l’IA peuvent infliger. Les participants au hackathon travailleront à la création de modèles d’IA capables de contrer les appels automatisés et les messages robotisés, en particulier ceux ciblant les personnes âgées avec des escroqueries vocales générées.

L’authentification du contenu est une priorité croissante de l’administration Biden-Harris. L’EO du président Biden a expliqué que le département du Commerce sera le fer de lance des efforts visant à valider le contenu produit par la Maison Blanche grâce à une collaboration avec le C2PA et d’autres groupes de défense de l’industrie. Ils s’efforceront d’établir des normes industrielles, telles que les engagements volontaires précédemment extraits de 15 des plus grandes entreprises d’IA de la Silicon Valley. Dans ses remarques, Harris a étendu cet appel à l’échelle internationale, demandant le soutien de toutes les nations pour élaborer des normes mondiales d’authentification du contenu produit par le gouvernement.

« Ces bénévoles [company] « Les engagements constituent une première étape vers un avenir plus sûr de l’IA, et d’autres sont à venir », a-t-elle déclaré. « Comme l’histoire l’a montré, en l’absence de réglementation et de surveillance gouvernementale stricte, certaines entreprises technologiques choisissent de donner la priorité au profit plutôt qu’au bien-être de leurs clients ; la sécurité de nos communautés; et la stabilité de nos démocraties.

« Une manière importante de relever ces défis – en plus du travail que nous avons déjà effectué – consiste à adopter une législation – une législation qui renforce la sécurité de l’IA sans étouffer l’innovation », a poursuivi Harris.

Source-145