Un responsable d’OpenAI estime que le projet de loi californien sur la sécurité de l’IA pourrait ralentir les progrès

Dans une nouvelle lettre, Jason Kwon, directeur de la stratégie d’OpenAI, insiste sur le fait que la réglementation de l’IA devrait être laissée au gouvernement fédéral. Comme indiqué précédemment par BloombergKwon affirme qu’un nouveau projet de loi sur la sécurité de l’IA à l’étude en Californie pourrait ralentir les progrès et inciter les entreprises à quitter l’État.

Un ensemble de politiques d’IA pilotées par le gouvernement fédéral, plutôt qu’un patchwork de lois étatiques, favorisera l’innovation et positionnera les États-Unis comme chef de file dans le développement de normes mondiales. Par conséquent, nous nous joignons à d’autres laboratoires d’IA, développeurs, experts et membres de la délégation du Congrès de Californie pour nous opposer respectueusement au projet de loi SB 1047 et nous saluons l’occasion de présenter certaines de nos principales préoccupations.

La lettre est adressée au sénateur de l’État de Californie, Scott Wiener, qui a initialement présenté Projet de loi SB 1047également connu sous le nom de Loi sur l’innovation sûre et sécurisée pour les modèles d’intelligence artificielle de pointe.

Selon des partisans comme Wiener, il établit des normes avant le développement de modèles d’IA plus puissants, exige des précautions telles que des tests de sécurité avant le déploiement et d’autres mesures de protection, ajoute des protections pour les dénonciateurs pour les employés des laboratoires d’IA, donne au procureur général de Californie le pouvoir d’engager des poursuites judiciaires si les modèles d’IA causent des dommages et appelle à la création d’un « cluster informatique en cloud public » appelé CalCompute.

Dans une réponse à la lettre Publié mercredi soir, Wiener souligne que les exigences proposées s’appliquent à toute entreprise faisant des affaires en Californie, qu’elle ait son siège social dans l’État ou non, donc l’argument « n’a aucun sens ». Il écrit également qu’OpenAI « … ne critique pas une seule disposition du projet de loi » et conclut en disant : « Le SB 1047 est un projet de loi très raisonnable qui demande aux grands laboratoires d’IA de faire ce qu’ils se sont déjà engagés à faire, à savoir tester leurs grands modèles pour détecter les risques de sécurité catastrophiques ».

Le projet de loi attend actuellement son vote final avant d’être présenté au bureau du gouverneur Gavin Newsom.

Voici la lettre d’OpenAI dans son intégralité :

source site-132