Le président Biden a signé un nouveau décret visant à réglementer intelligence artificielle pour éviter qu’elle ne soit utilisée à mauvais escient par les entreprises tout en garantissant que la vie privée des Américains ne sera pas mise en danger par cette technologie émergente.
Selon un communiqué de presse de la Maison Blanche, le décret établira de nouvelles normes en matière de sûreté et de sécurité de l’IA, de protection de la vie privée concernant l’utilisation de l’IA et favorisera l’innovation et la concurrence afin que les États-Unis puissent montrer la voie dans le développement de la technologie.
À la suite de ce décret historique, OpenAI, Google, Microsoft et d’autres sociétés seront tenues de partager les résultats de leurs tests de sécurité et d’autres informations critiques avec le gouvernement américain. Bien que cela ne s’applique pas à ChatGPT et Google Bardeil s’appliquera aux futures générations de modèles d’IA utilisés pour alimenter ces chatbots.
L’Institut national des normes et technologies (NIST) a également été chargé de développer des normes, des outils et des tests pour garantir que les systèmes d’IA sont sûrs, sécurisés et dignes de confiance. Une fois celles-ci terminées, le ministère de la Sécurité intérieure appliquera ensuite ces normes aux secteurs d’infrastructures critiques tout en créant également un conseil de sûreté et de sécurité de l’IA.
Étant donné que l’IA peut être utilisée pour Hameçonnage et la fraude, le ministère du Commerce exigera que le contenu généré par l’IA porte un filigrane. Il s’efforcera également d’élaborer des lignes directrices pour l’authentification du contenu que les agences fédérales utiliseront ensuite pour permettre aux Américains de savoir facilement si les communications qu’ils reçoivent du gouvernement sont authentiques ou non. Cela devrait contribuer à réduire l’utilisation de l’IA pour escroqueries par usurpation d’identité conçu pour voler votre Numéro de sécurité sociale et autres données sensibles.
Ce nouveau décret s’appuie également sur l’initiative AI Cyber Challenge de l’administration Biden, qui vise à rendre plus sécurisés les logiciels et les réseaux utilisés par le gouvernement en exploitant la puissance de l’IA pour trouver et corriger les vulnérabilités des logiciels critiques. Dans le même temps, le décret prévoit également un nouveau mémorandum de sécurité nationale sur l’IA élaboré par le Conseil de sécurité nationale et le chef d’état-major de la Maison Blanche, qui garantira que l’armée et la communauté du renseignement américaines utilisent l’IA de manière sûre, éthique et efficace dans leurs missions.
Empêcher l’IA de mettre votre vie privée en danger
Bien que de nombreuses parties de ce nouveau décret s’appliquent au gouvernement américain et aux entreprises développant l’IA, il contient également de nombreuses dispositions sur la protection de la vie privée des Américains.
Pour commencer, le président Biden appelle le Congrès à adopter une législation bipartite sur la confidentialité des données conçue pour protéger tous les Américains, et en particulier les enfants, des dangers posés par l’IA. Dans le cadre de ces mesures, le financement fédéral sera utilisé pour accélérer le développement de techniques de protection de la vie privée telles que Systèmes d’IA qui peuvent être formés tout en préservant la confidentialité des données de formation utilisées pour les enseigner.
Le décret appelle également à la manière dont les agences collectent et utilisent les informations disponibles dans le commerce, y compris les informations sur les Américains auprès desquels elles achètent. courtiers en données – Pour être évalué. C’est un pas dans la bonne direction, mais moi-même et beaucoup d’autres préférerions que les agences gouvernementales américaines cessent complètement d’acheter des données de localisation et d’autres informations sensibles auprès des courtiers en données.
Le décret du président Biden traite également de l’équité et des droits civils dans le but d’empêcher que l’IA soit utilisée à des fins discriminatoires à l’égard des Américains. Par exemple, les propriétaires, les programmes d’avantages sociaux fédéraux et les entrepreneurs fédéraux recevront des conseils sur la manière dont ils peuvent empêcher que les algorithmes d’IA ne soient utilisés pour aggraver la discrimination. De même, les meilleures pratiques seront établies concernant l’utilisation de l’IA dans la détermination de la peine, la libération conditionnelle, la probation, la surveillance, l’analyse médico-légale et bien plus encore.
Le décret traite également de l’utilisation responsable de l’IA dans les soins de santé et le système éducatif, car ces deux secteurs peuvent être transformés par l’IA pour mieux profiter aux consommateurs et aux étudiants américains.
Perspectives : le président Biden a fini d’attendre
En matière d’IA, le Congrès a mis du temps à agir. Au lieu de cela, il a décidé d’en apprendre davantage sur cette technologie avant que les législateurs américains ne commencent à adopter de nouvelles lois pour la réglementer. Cependant, avec son nouveau décret, le président Biden adopte une approche beaucoup plus proactive.
Avant même de signer ce nouveau décret, l’administration Biden a déjà commencé à travailler à l’élaboration d’un Déclaration des droits de l’IA. Il contient cinq principes conçus pour guider la conception, l’utilisation et le déploiement de systèmes automatisés de manière à ce que les droits du public américain restent protégés à l’ère de l’IA.
Comme tous les décrets, celui-ci a « force de loi » selon un haut responsable de l’administration qui s’est entretenu avec CNBC. Cela signifie que le gouvernement américain peut désormais commencer à s’en prendre aux entreprises et aux organisations qui abusent de l’IA pour leur propre profit.
Nous en apprendrons probablement davantage sur les projets de l’administration Biden concernant l’IA à l’avenir, mais ce nouveau décret est une première étape importante pour garantir que la vie privée et la sécurité des Américains ne seront pas mises en danger à mesure que l’IA continue de progresser.