Le gouverneur de Californie, Gavin Newsom, a opposé son veto au projet de loi SB 1047, qui vise à empêcher les mauvais acteurs d’utiliser l’IA pour causer des « dommages critiques » aux humains. L’Assemblée de l’État de Californie a adopté le projet de loi par 41 voix contre 9 le 28 août, mais plusieurs organisations, dont la Chambre de commerce, avaient exhorté Newsom à opposer son veto au projet de loi. Dans son message de veto du 29 septembre, Newsom a déclaré que le projet de loi était « bien intentionné » mais « ne tient pas compte du fait qu’un système d’IA soit déployé dans des environnements à haut risque, implique une prise de décision critique ou l’utilisation de données sensibles ». Au lieu de cela, le projet de loi applique des normes strictes, même aux fonctions les plus élémentaires, à condition qu’elles soient déployées par un grand système. »
Le SB 1047 aurait rendu les développeurs de modèles d’IA responsables de l’adoption de protocoles de sécurité qui mettraient fin aux utilisations catastrophiques de leur technologie. Cela inclut des mesures préventives telles que des tests et une évaluation externe des risques, ainsi qu’un « arrêt d’urgence » qui arrêterait complètement le modèle d’IA. Une première violation coûterait au minimum 10 millions de dollars et 30 millions de dollars pour les infractions ultérieures. Cependant, le projet de loi a été révisé pour éliminer la capacité du procureur général de l’État de poursuivre les sociétés d’IA pour pratiques négligentes si un événement catastrophique ne se produit pas. Les entreprises ne seraient soumises qu’à une injonction et pourraient être poursuivies si leur modèle causait un préjudice critique.
Cette loi s’appliquerait aux modèles d’IA dont l’utilisation coûte au moins 100 millions de dollars et 10 ^ 26 FLOPS pour la formation. Il aurait également couvert les projets dérivés dans les cas où un tiers aurait investi 10 millions de dollars ou plus dans le développement ou la modification du modèle original. Toute entreprise faisant des affaires en Californie serait soumise aux règles si elle remplissait les autres exigences. Abordant l’accent mis par le projet de loi sur les systèmes à grande échelle, Newsom a déclaré : « Je ne pense pas que ce soit la meilleure approche pour protéger le public contre les menaces réelles posées par la technologie. » Le message de veto ajoute :
En se concentrant uniquement sur les modèles les plus chers et les plus grands, le SB 1047 établit un cadre réglementaire qui pourrait donner au public un faux sentiment de sécurité quant au contrôle de cette technologie en évolution rapide. Des modèles plus petits et spécialisés pourraient s’avérer tout aussi dangereux, voire plus, que les modèles ciblés par le SB 1047 – au détriment potentiel de l’innovation même qui alimente le progrès en faveur du bien public.
La version antérieure du SB 1047 aurait créé un nouveau département appelé Frontier Model Division pour superviser et appliquer les règles. Au lieu de cela, le projet de loi a été modifié avant un vote en commission pour placer la gouvernance entre les mains d’un conseil des modèles frontaliers au sein de l’Agence des opérations gouvernementales. Les neuf membres seraient nommés par le gouverneur et le corps législatif de l’État.
Le projet de loi a connu un chemin compliqué jusqu’au vote final. Le SB 1047 a été rédigé par le sénateur de l’État de Californie, Scott Wiener, qui a déclaré TechCrunch: « Nous avons l’habitude, avec la technologie, d’attendre que des dommages surviennent, puis de nous tordre les mains. N’attendons pas que quelque chose de grave se produise. Prenons simplement les devants. » Les célèbres chercheurs en IA Geoffrey Hinton et Yoshua Bengio ont soutenu la législation, tout comme le Center for AI Safety, qui a tiré la sonnette d’alarme sur les risques de l’IA au cours de l’année écoulée.
« Laissez-moi être clair – je suis d’accord avec l’auteur – nous ne pouvons pas nous permettre d’attendre qu’une catastrophe majeure se produise avant de prendre des mesures pour protéger le public », a déclaré Newsom dans le message de veto. La déclaration continue :
La Californie n’abandonnera pas ses responsabilités. Des protocoles de sécurité doivent être adoptés. Des garde-fous proactifs doivent être mis en place, et les conséquences graves pour les mauvais acteurs doivent être claires et applicables. Je ne suis cependant pas d’accord sur le fait que pour assurer la sécurité du public, nous devons nous contenter d’une solution qui ne s’appuie pas sur une analyse empirique de la trajectoire des systèmes et des capacités de l’IA. En fin de compte, tout cadre visant à réglementer efficacement l’IA doit suivre le rythme de la technologie elle-même.
Le SB 1047 a suscité une vive opposition dans tout l’espace technologique. Le chercheur Fei-Fei Li a critiqué le projet de loi, tout comme Yann LeCun, scientifique en chef du Meta AI, pour limiter le potentiel d’exploration de nouvelles utilisations de l’IA. Le groupe commercial représentant les géants de la technologie tels qu’Amazon, Apple et Google a déclaré que le SB 1047 limiterait les nouveaux développements dans le secteur technologique de l’État. La société de capital-risque Andreeson Horowitz et plusieurs startups se sont également demandé si le projet de loi imposait des charges financières inutiles aux innovateurs en IA. Anthropic et d’autres opposants au projet de loi initial ont fait pression pour des amendements qui ont été adoptés dans la version du SB 1047 qui a été adoptée par le comité des crédits de Californie le 15 août.