Le gouverneur de Californie, Gavin Newsom, a opposé son veto au SB-1047, un règlement controversé sur l’intelligence artificielle qui aurait obligé les fabricants de grands modèles d’IA à imposer des tests de sécurité et des coupe-circuit pour éviter d’éventuels « dommages critiques ».
Dans une déclaration annonçant le veto dimanche soir, Newsom a suggéré que l’intérêt spécifique du projet de loi sur la taille des modèles était déplacé. « En se concentrant uniquement sur les modèles les plus chers et à grande échelle, le SB-1047 établit un cadre réglementaire qui pourrait donner au public un faux sentiment de sécurité quant au contrôle de cette technologie en évolution rapide », a écrit Newsom. « Des modèles plus petits et spécialisés pourraient s’avérer tout aussi dangereux, voire plus, que les modèles ciblés par le SB-1047, au détriment potentiel de l’innovation même qui alimente le progrès en faveur du bien public. »
Newsom a mentionné des « risques spécifiques en évolution rapide » liés aux modèles d’IA qui pourraient être réglementés de manière plus ciblée, tels que « les menaces contre notre processus démocratique, la propagation de la désinformation et des deepfakes, les risques pour la vie privée en ligne, les menaces pour les infrastructures critiques et les perturbations dans la main-d’oeuvre. » La Californie a déjà un certain nombre de lois sur l’IA ciblant certains de ces dommages potentiels, et de nombreux autres États ont signé des lois similaires.
« Bien que bien intentionné, le SB-1047 ne tient pas compte du fait qu’un système Al est déployé dans des environnements à haut risque, implique une prise de décision critique ou l’utilisation de données sensibles », a poursuivi Newsom en expliquant le veto. « Au lieu de cela, le projet de loi applique des normes strictes même aux fonctions les plus élémentaires, à condition qu’un grand système le déploie. Je ne pense pas que ce soit la meilleure approche pour protéger le public contre les menaces réelles posées par la technologie. »
Le sénateur d’État Scott Wiener, co-auteur du projet de loi, a qualifié le veto de Newsom dans une publication sur les réseaux sociaux de « revers pour tous ceux qui croient en la surveillance des grandes entreprises qui prennent des décisions critiques qui affectent la sécurité et le bien-être du public et l’avenir de l’État. la planète. » Les engagements volontaires des entreprises d’IA en faveur de la sécurité ne suffisent pas, a expliqué Wiener, ajoutant que l’absence de réglementation gouvernementale efficace signifie que « nous sommes tous moins en sécurité en raison » du veto.
Une bataille de lobbying âprement menée
Le SB-1047, qui a été adopté par l’Assemblée de l’État en août, a bénéficié du soutien de nombreuses sommités du domaine de l’IA, notamment Geoffrey Hinton et Yoshua Bengio. Mais d’autres acteurs du secteur ont critiqué l’approche autoritaire du projet de loi et se sont inquiétés de la responsabilité juridique qu’il aurait pu imposer aux modèles à poids ouvert utilisés par d’autres à des fins nuisibles.
Peu de temps après l’adoption du projet de loi, un groupe de chefs d’entreprise californiens a envoyé une lettre ouverte au gouverneur Newsom l’exhortant à opposer son veto à ce qu’ils ont appelé un projet de loi « fondamentalement défectueux » qui « réglemente le développement de modèles au lieu d’une utilisation abusive » et qui, selon eux, « introduirait des contraintes lourdes ». les coûts de mise en conformité. » Les lobbyistes de grandes entreprises technologiques, notamment Google et Meta, se sont également publiquement opposés au projet de loi, bien qu’un groupe d’employés de ces entreprises et d’autres grandes entreprises technologiques se soient prononcés en faveur de son adoption.
Jason Kwon, directeur de la stratégie d’OpenAI, a publiquement demandé un veto au SB-1047, affirmant dans une lettre ouverte qu’une réglementation fédérale serait plus appropriée et plus efficace qu’un « patchwork de lois étatiques ». Les premières tentatives visant à élaborer une telle législation fédérale ont été bloquées au Congrès en raison de la publication de feuilles de route politiques et de rapports de groupes de travail anodins.
Le leader de xAI, Elon Musk, a plaidé en faveur de l’adoption du projet de loi, affirmant que c’était « une décision difficile » mais qu’en fin de compte, l’IA doit être réglementée « tout comme nous réglementons tout produit/technologie qui présente un risque potentiel pour le public ». Le puissant syndicat d’acteurs californien, SAG-AFTRA, s’est également prononcé en faveur du projet de loi, le qualifiant de « première étape » vers la protection contre les dangers connus tels que les deepfakes et l’utilisation non consensuelle de voix et de ressemblances pour ses membres.
Lors de la conférence Dreamforce 2024 plus tôt ce mois-ci, Newsom a publiquement évoqué « le genre d’impact démesuré que la législation [like SB-1047] pourrait avoir, et l’effet dissuasif, en particulier dans la communauté open source… Je ne peux pas tout résoudre. Que pouvons-nous résoudre ? »