La législature californienne adopte un projet de loi controversé sur la sécurité de l’IA, appelé « kill switch »

Agrandir / Le gouverneur de Californie, Gavin Newsom, devra probablement bientôt décider s’il signe ou non le projet de loi SB-1047.

Ray Chavez/The Mercury News via Getty Images

Un projet de loi controversé visant à renforcer les normes de sécurité pour les grands modèles d’intelligence artificielle a été adopté par l’Assemblée de l’État de Californie par 45 voix contre 11. Après un vote du Sénat de l’État de 32 contre 1 en mai, le SB-1047 n’a plus qu’à subir un vote de procédure au Sénat avant d’être déposé sur le bureau du gouverneur Gavin Newsom.

Comme nous l’avons déjà évoqué en détail, le projet de loi SB-1047 demande aux créateurs de modèles d’IA de mettre en place un « kill switch » qui peut être activé si ce modèle commence à introduire « de nouvelles menaces pour la sécurité publique », en particulier s’il agit « avec une surveillance, une intervention ou une supervision humaine limitée ». Certains ont critiqué le projet de loi pour se concentrer sur les risques farfelus d’une IA future imaginée plutôt que sur les dommages réels et actuels des cas d’utilisation de l’IA comme les deep fakes ou la désinformation.

En annonçant l’adoption du projet de loi mercredi, le parrain du projet de loi et sénateur d’État Scott Weiner a cité le soutien de sommités de l’industrie de l’IA telles que Geoffrey Hinton et Yoshua Bengio (qui ont tous deux signé l’année dernière une déclaration avertissant d’un « risque d’extinction » dû au développement rapide de la technologie de l’IA).

Dans un éditorial récemment publié dans le magazine Fortune, Bengio a déclaré que le projet de loi « décrit un strict minimum pour une réglementation efficace des modèles d’IA de pointe » et que son accent sur les grands modèles (qui coûtent plus de 100 millions de dollars à former) évitera tout impact sur les petites startups.

« Nous ne pouvons pas laisser les entreprises noter leurs propres devoirs et se contenter de donner de belles assurances », a écrit Bengio. « Nous n’acceptons pas cela dans d’autres technologies telles que les produits pharmaceutiques, l’aérospatiale et la sécurité alimentaire. Pourquoi l’IA devrait-elle être traitée différemment ? »

Mais dans un autre éditorial de Fortune paru plus tôt ce mois-ci, Fei-Fei Li, professeur d’informatique et expert en IA à Stanford, a fait valoir que cette législation « bien intentionnée » « aura des conséquences imprévues importantes, non seulement pour la Californie mais pour l’ensemble du pays ».

L’imposition de la responsabilité du développeur original de tout modèle modifié par le projet de loi « forcera les développeurs à se retirer et à agir de manière défensive », a soutenu Li. Cela limitera le partage open source des pondérations et des modèles d’IA, ce qui aura un impact significatif sur la recherche universitaire, a-t-elle écrit.

Que fera Newsom ?

Un groupe de chefs d’entreprise californiens a envoyé mercredi une lettre ouverte exhortant Newsom à opposer son veto au projet de loi « fondamentalement erroné » qui « réglemente de manière inappropriée le développement de modèles au lieu de leur utilisation abusive ». Le projet de loi « introduirait des coûts de conformité onéreux » et « freinerait l’investissement et l’innovation par l’ambiguïté réglementaire », a déclaré le groupe.

Le gouverneur Newsom s’exprime sur les questions liées à l’IA lors d’un symposium en mai.

Si le Sénat confirme la version de l’Assemblée comme prévu, Newsom aura jusqu’au 30 septembre pour décider s’il signe ou non le projet de loi. S’il y oppose son veto, le Parlement pourrait passer outre avec un vote des deux tiers dans chaque chambre (une forte possibilité compte tenu du nombre écrasant de votes en faveur du projet de loi).

Lors d’un symposium organisé à l’Université de Californie à Berkeley en mai, Newsom a déclaré qu’il craignait que « si nous surréglementons, si nous nous livrons à des excès, si nous courons après un objet brillant, nous pourrions nous mettre dans une position périlleuse ».

Dans le même temps, Newsom a déclaré que ces inquiétudes concernant la surréglementation étaient contrebalancées par les inquiétudes qu’il entendait de la part des dirigeants du secteur de l’IA. « Lorsque les inventeurs de cette technologie, les parrains et marraines, disent : « Au secours, vous devez nous réglementer », c’est un environnement très différent », a-t-il déclaré lors du symposium. « Lorsqu’ils se précipitent pour éduquer les gens et qu’ils disent en gros : « Nous ne savons pas vraiment ce que nous avons fait, mais vous devez faire quelque chose à ce sujet », c’est un environnement intéressant. »

Source-147