Un décret radical de la Maison Blanche vise les défis les plus difficiles de l’IA

L’administration Biden a dévoilé lundi ses prochaines étapes ambitieuses pour aborder et réglementer le développement de l’intelligence artificielle. Son nouveau décret ambitieux vise à établir des protections supplémentaires pour le public ainsi qu’à améliorer les meilleures pratiques pour les agences fédérales et leurs sous-traitants.

« Il y a plusieurs mois, le président a ordonné à son équipe d’actionner tous les leviers », a déclaré un haut responsable de l’administration aux journalistes lors d’un récent appel à la presse. « C’est ce que fait cette ordonnance, en donnant au gouvernement fédéral le pouvoir d’agir dans un large éventail de domaines pour gérer les risques de l’IA et exploiter ses avantages… Elle défend les consommateurs et les travailleurs, promeut l’innovation et la concurrence, fait progresser le leadership américain dans le domaine. le monde et comme tous les décrets, celui-ci a force de loi. »

Ces actions seront introduites au cours de l’année prochaine, avec des changements plus mineurs en matière de sûreté et de sécurité dans un délai d’environ 90 jours et avec des programmes de reporting et de transparence des données plus complexes nécessitant 9 à 12 mois pour un déploiement complet. L’administration est également en train de créer un « conseil de l’IA », présidé par le chef de cabinet adjoint de la Maison Blanche, Bruce Reed, qui rencontrera les chefs des agences fédérales pour s’assurer que les actions sont exécutées dans les délais.

PRESSE ASSOCIÉE

La sécurité publique

« En réponse au leadership du président sur le sujet, 15 grandes entreprises technologiques américaines ont commencé à s’engager volontairement à garantir que la technologie de l’IA est sûre, sécurisée et digne de confiance avant de la rendre publique », a déclaré le haut responsable de l’administration. « Ce n’est pas suffisant. »

L’EO ordonne l’établissement de nouvelles normes pour la sûreté et la sécurité de l’IA, y compris des exigences de reporting pour les développeurs dont les modèles de base pourraient avoir un impact sur la sécurité nationale ou économique. Ces exigences s’appliqueront également au développement d’outils d’IA permettant de mettre en œuvre de manière autonome des correctifs de sécurité sur l’infrastructure logicielle critique.

En s’appuyant sur la Loi sur la production de défense, cet EO « exigera que les entreprises développant tout modèle de base qui présente un risque sérieux pour la sécurité nationale, la sécurité économique nationale ou la santé et la sécurité publiques nationales informent le gouvernement fédéral lors de la formation du modèle et doivent partager les résultats de tous les tests de sécurité de l’équipe rouge », selon un communiqué de presse de la Maison Blanche. Ces informations doivent être partagées avant que le modèle ne soit mis à la disposition du public, ce qui pourrait contribuer à réduire la vitesse à laquelle les entreprises lancent des produits d’apprentissage automatique mal préparés et potentiellement mortels.

En plus du partage des résultats des tests de l’équipe rouge, l’EO exige également la divulgation des cycles de formation du système (essentiellement, son historique de développement itératif). « Cela crée un espace avant la publication… pour vérifier que le système est sûr et sécurisé », ont déclaré les responsables.

Les responsables de l’administration n’ont pas tardé à souligner que cette exigence de déclaration n’aurait aucune incidence sur les modèles d’IA actuellement disponibles sur le marché, ni sur les entreprises indépendantes ou de petite et moyenne taille dans le domaine de l’IA, car le seuil d’application est assez élevé. Il est spécifiquement conçu pour la prochaine génération de systèmes d’IA sur lesquels Google, Meta et OpenAI travaillent déjà, avec une application sur des modèles commençant à 10 ^ 26 pétaflops, une capacité actuellement au-delà des limites des modèles d’IA existants. « Cela ne permettra pas d’attraper les systèmes d’IA formés par des étudiants diplômés, ni même par des professeurs », a déclaré le responsable de l’administration.

De plus, l’EO encouragera les ministères de l’Énergie et de la Sécurité intérieure à lutter contre les menaces de l’IA « contre les infrastructures critiques, ainsi que les risques chimiques, biologiques, radiologiques, nucléaires et de cybersécurité », selon le communiqué. « Les agences qui financent des projets de sciences de la vie établiront ces normes comme condition du financement fédéral, créant ainsi de puissantes incitations pour garantir un contrôle approprié et gérer les risques potentiellement aggravés par l’IA. » En bref, tout développeur trouvé en violation de l’EO peut probablement s’attendre à une visite rapide et désagréable du DoE, de la FDA, de l’EPA ou de tout autre organisme de réglementation applicable, quel que soit l’âge ou la vitesse de traitement de son modèle d’IA.

Dans un effort pour remédier de manière proactive à l’état décrépit de l’infrastructure numérique américaine, l’ordonnance vise également à établir un programme de cybersécurité, vaguement basé sur l’AI Cyber ​​Challenge existant de l’administration, pour développer des outils d’IA capables d’éliminer et de consolider de manière autonome les vulnérabilités de sécurité dans des environnements critiques. infrastructure logicielle. Il reste à voir si ces systèmes seront en mesure de répondre aux préoccupations concernant le mauvais comportement des modèles que le directeur de la SEC, Gary Gensler, a récemment soulevées.

Filigrane IA et validation cryptographique

Nous assistons déjà à la normalisation de la supercherie des deepfakes et de la désinformation basée sur l’IA au cours de la campagne électorale. Ainsi, la Maison Blanche prend des mesures pour garantir que le public puisse faire confiance aux contenus textuels, audio et vidéo qu’elle publie sur ses chaînes officielles. Le public doit pouvoir facilement valider si le contenu qu’il voit est généré par l’IA ou non, ont soutenu les responsables de la Maison Blanche lors de la conférence de presse.

Image générée par l'IA de pingouins dans un désert avec la fenêtre d'informations sur les informations d'identification du contenu ouverte dans le coin supérieur droit

Adobe

Le ministère du Commerce est responsable de ce dernier effort et devrait travailler en étroite collaboration avec les groupes de défense de l’industrie existants tels que le C2PA et son organisation sœur, la CAI, pour développer et mettre en œuvre un système de filigrane pour les agences fédérales. « Notre objectif est de soutenir, de faciliter et d’aider à normaliser ce travail. [by the C2PA] », ont déclaré des responsables de l’administration. «Nous nous considérons comme connectés à cet écosystème.»

Les responsables ont en outre expliqué que le gouvernement soutenait les normes et pratiques techniques sous-jacentes qui conduiraient à une adoption plus large du filigrane numérique – à l’instar du travail qu’il a effectué pour développer l’écosystème HTTPS et pour impliquer les développeurs et le public. Cela aidera les responsables fédéraux à atteindre leur autre objectif, à savoir garantir que les messages officiels du gouvernement sont fiables.

Droits civils et protection des consommateurs

Le premier projet de déclaration des droits de l’IA que la Maison Blanche a publié en octobre dernier ordonnait aux agences de « lutter contre la discrimination algorithmique tout en appliquant les autorités existantes pour protéger les droits et la sécurité des personnes », a déclaré le responsable de l’administration. « Mais il reste encore beaucoup à faire. »

Le nouvel EO exigera que les directives soient étendues aux « propriétaires, aux programmes de prestations fédéraux et aux entrepreneurs fédéraux » pour empêcher les systèmes d’IA d’exacerber la discrimination au sein de leurs sphères d’influence. Il demandera également au ministère de la Justice de développer les meilleures pratiques pour enquêter et poursuivre les violations des droits civils liées à l’IA, ainsi que, selon l’annonce, « l’utilisation de l’IA dans la détermination de la peine, la libération conditionnelle et la probation, la libération provisoire et la détention, les évaluations des risques ». , surveillance, prévision de la criminalité et police prédictive, et analyse médico-légale.

En outre, l’EO appelle à donner la priorité au soutien fédéral pour accélérer le développement de techniques de préservation de la vie privée qui permettraient aux futurs LLM d’être formés sur de grands ensembles de données sans le risque actuel de fuite des informations personnelles que ces ensembles de données pourraient contenir. Ces solutions pourraient inclure « des outils cryptographiques qui préservent la vie privée des individus », selon le communiqué de la Maison Blanche, développés avec l’aide du Research Coordination Network et de la National Science Foundation. Le décret réitère également ses appels à une législation bipartite du Congrès traitant des problèmes plus larges de confidentialité que les systèmes d’IA présentent pour les consommateurs.

En termes de soins de santé, l’EO déclare que le ministère de la Santé et des Services sociaux établira un programme de sécurité qui suivra et remédiera aux pratiques médicales dangereuses basées sur l’IA. Les enseignants bénéficieront également du soutien du gouvernement fédéral dans l’utilisation d’outils pédagogiques basés sur l’IA, comme le tutorat personnalisé par chatbot.

Protections des travailleurs

L’administration Biden admet que si la révolution de l’IA constitue une aubaine incontestable pour les entreprises, ses capacités en font une menace pour la sécurité des travailleurs en raison du déplacement des emplois et de la surveillance intrusive des lieux de travail. L’EO cherche à résoudre ces problèmes avec « le développement de principes et de meilleures pratiques pour les employeurs qui atténuent les dommages et maximisent les avantages de l’IA pour les travailleurs », a déclaré un responsable de l’administration. « Nous encourageons les agences fédérales à adopter ces lignes directrices dans l’administration de leurs programmes. »

Des travailleurs ont participé à une manifestation devant le studio Paramount Pictures le 13 septembre 2023 à Los Angeles.  Les studios de Hollywood abandonnent les négociations avec le syndicat des acteurs à l'étranger.  (Photo Richard Shotwell/Invision/AP)

Richard Shotwell/Invision/AP

L’EO demandera également au ministère du Travail et au Conseil des conseillers économiques d’étudier tous deux l’impact de l’IA sur le marché du travail et la manière dont le gouvernement fédéral pourrait mieux soutenir les travailleurs « confrontés à une interruption de travail » à l’avenir. Les responsables de l’administration ont également souligné les avantages potentiels que l’IA pourrait apporter à la bureaucratie fédérale, notamment la réduction des coûts et l’augmentation de l’efficacité de la cybersécurité. « Il y a beaucoup d’opportunités ici, mais nous devons garantir le développement et le déploiement responsable de l’IA par le gouvernement », a déclaré un responsable de l’administration.

À cette fin, l’administration lance lundi un nouveau portail fédéral de l’emploi, AI.gov, qui offrira des informations et des conseils sur les programmes de bourses disponibles pour les personnes à la recherche d’un emploi au sein du gouvernement fédéral. « Nous essayons d’attirer davantage de talents en IA à tous les niveaux », a déclaré un responsable de l’administration. « Des programmes comme le US Digital Service, la Presidential Innovation Fellowship et USA jobs – font tout ce que nous pouvons pour attirer les talents. » La Maison Blanche cherche également à élargir les règles d’immigration existantes afin de rationaliser les critères de visa, les entretiens et les examens pour les personnes essayant de s’installer et de travailler aux États-Unis dans ces industries avancées.

La Maison Blanche n’aurait apparemment pas donné d’aperçu de l’industrie sur cette série particulière de changements politiques radicaux, bien que les responsables de l’administration aient noté qu’ils avaient déjà collaboré largement avec les sociétés d’IA sur bon nombre de ces questions. Le Sénat a tenu son deuxième événement AI Insight Forum la semaine dernière à Capitol Hill, tandis que la vice-présidente Kamala Harris devrait prendre la parole au sommet britannique sur la sécurité de l’IA, organisé mardi par le Premier ministre Rishi Sunak.

WASHINGTON, DC - SEPTEMBRE 12 : le leader de la majorité au Sénat, Charles Schumer (D-NY), s'adresse aux journalistes à la suite du déjeuner-réunion hebdomadaire sur la politique démocrate du Sénat au Capitole des États-Unis le 12 septembre 2023 à Washington, DC.  Schumer a été interrogé sur l'annonce par le président de la Chambre, Kevin McCarthy, d'une enquête formelle de destitution du président Joe Biden.  (Photo par Chip Somodevilla/Getty Images)

Puce Somodevilla via Getty Images

Lors d’un événement organisé jeudi dans le Washington Post, le chef de la majorité sénatoriale, Charles Schumer (Démocrate-NY), affirmait déjà que le décret n’allait pas assez loin et ne pouvait pas être considéré comme un remplacement efficace de l’action du Congrès, qui jusqu’à présent a été lente à mettre en œuvre. à venir.

« Il y a probablement une limite à ce que vous pouvez faire par décret », a déclaré Schumer. WaPo« Ils [the Biden Administration] sont inquiets, et ils font beaucoup de choses en matière de réglementation, mais tout le monde admet que la seule vraie réponse est législative.

Source-145