Gavin Newsom s’oppose au projet de loi sur la sécurité de l’IA, qui avait le soutien de SAG-AFTRA. Plus de variétés les plus populaires doivent lire S’inscrire aux newsletters de variétés Plus de nos marques

Gavin Newsom s'oppose au projet de loi sur la sécurité de l'IA, qui avait le soutien de SAG-AFTRA. Plus de variétés les plus populaires doivent lire S'inscrire aux newsletters de variétés Plus de nos marques

Le gouverneur de Californie, Gavin Newsom, a opposé son veto dimanche à un projet de loi visant à prévenir les risques catastrophiques liés aux modèles d’intelligence artificielle très avancés.

Le projet de loi, SB 1047, a été le projet de loi sur l’IA le plus controversé de la session législative, avec des dizaines de militants et d’entreprises d’IA alignés de chaque côté. Les auteurs préviennent que s’ils ne sont pas réglementés, les modèles d’IA pourraient être utilisés pour développer des armes chimiques ou nucléaires, ce qui pourrait entraîner de nombreuses pertes. Les opposants ont fait valoir qu’une réglementation sévère étoufferait le développement de l’IA et forcerait les entreprises d’IA à quitter l’État.

Dans un message de veto, Newsom a déclaré que le projet de loi résout un véritable problème, mais n’établit pas le bon cadre réglementaire.

« Je ne pense pas que ce soit la meilleure approche pour protéger le public des menaces réelles posées par la technologie », a-t-il écrit. « En fin de compte, tout cadre visant à réglementer efficacement l’aluminium doit suivre le rythme de la technologie elle-même. »

Parmi les partisans du projet de loi figurait le SAG-AFTRA, le syndicat qui représente les acteurs hollywoodiens. Un groupe appelé « Artists for Safe AI » a également publié mardi une lettre ouverte soutenant le projet de loi, avec le soutien de JJ Abrams, Shonda Rhimes, Judd Apatow, Rob Reiner, Jane Fonda, Rian Johnson, Adam McKay, Mark Hamill, Mark Ruffalo, Don Cheadle et autres.

Le syndicat des acteurs s’est exprimé ouvertement sur la menace de l’IA de cloner des acteurs et de les mettre dans des films ou des émissions de télévision sans leur consentement. C’est la première fois que le syndicat se penche sur les risques plus vastes, en dehors du domaine du divertissement, qui pourraient provenir de modèles d’IA très avancés.

« Cela vient vraiment du fait que nous avons été personnellement confrontés aux dangers d’un aspect de l’IA », a déclaré Jeffrey Bennett, avocat général du syndicat. « Ce projet de loi semble être le seul qui cible uniquement les systèmes incroyablement puissants et coûteux qui ont la capacité de causer un problème critique de masse. Pourquoi ne pas réglementer à ce niveau-là ? Pourquoi ne pas intégrer des protocoles de sécurité de base sensés à ce stade du jeu ? »

En annonçant son veto dimanche, Newsom a déclaré qu’il convoquerait également des experts pour élaborer des réglementations visant à promouvoir le développement sûr de l’IA, et qu’il continuerait à travailler sur la question l’année prochaine.

La SAG-AFTRA a soutenu cette année deux autres projets de loi sur l’IA en Californie, qui réglementent l’utilisation de l’IA dans le contexte du divertissement. Newsom a signé les deux factures au siège de la SAG-AFTRA plus tôt ce mois-ci.

Le syndicat n’a pas été impliqué dans le débat sur le SB 1047 alors qu’il était en instance à l’Assemblée législative. Mais le 9 septembre, le syndicat a envoyé une lettre à Newsom l’exhortant à signer le projet de loi.

« La technologie deepfake assistée par l’IA a été utilisée pour créer de fausses images nues et pornographiques de membres de la SAG-AFTRA », a écrit Shane Gusman, lobbyiste du syndicat à Sacramento. « À notre avis, les décideurs politiques ont la responsabilité d’intervenir et de protéger nos membres et le public. Le SB 1047 est une première étape mesurée pour nous y amener.

Les autres syndicats et entreprises d’Hollywood ne se sont pas impliqués sur la question, qui ne concernait que des modèles d’IA « frontières » qui n’existent pas actuellement.

Newsom a signé un autre projet de loi sur l’IA, AB 2013, qui oblige les développeurs d’IA à divulguer s’ils entraînent leurs modèles sur des œuvres protégées par le droit d’auteur.

La Concept Art Association était l’un des principaux partisans de ce projet de loi. Le groupe représente des artistes qui créent des idées visuelles pour les films, l’animation et les jeux vidéo. Ces dernières années, beaucoup ont vu leur travail intégré dans des modèles d’IA, qui peuvent être utilisés pour supplanter leur travail.

Le projet de loi n’oblige pas les développeurs à révéler l’intégralité de l’ensemble de données utilisé pour entraîner leurs modèles. Cela n’oblige pas non plus les développeurs à payer pour l’utilisation d’œuvres protégées par le droit d’auteur – une question très controversée qui fait toujours l’objet de litiges. Cela oblige simplement les développeurs à reconnaître l’utilisation de données protégées par le droit d’auteur ou d’autres informations « personnelles ».

« Toute divulgation que nous pouvons obtenir est une bonne chose », a déclaré Deana Igelsrud, défenseure législative et politique de la Concept Art Association. « C’est très général, mais c’est un début. »

Les syndicats d’Hollywood ont soutenu un projet de loi similaire au Congrès, proposé par le représentant Adam Schiff plus tôt cette année.

« Aucun de ces systèmes d’IA ne serait capable de produire quoi que ce soit s’ils n’étaient pas remplis de tout l’art de l’histoire du monde », a déclaré Igelsrud. « Je ne pense pas que les gens comprennent vraiment que de vrais êtres humains sont attachés aux données. Tout le monde suppose que si vous le mettez sur Internet, c’est gratuit pour tous. Ce n’est pas le cas.

Source-111