dimanche, décembre 22, 2024

Tollé des grandes entreprises d’IA face au projet de loi californien sur le « kill switch »

Les poids lourds de l’intelligence artificielle en Californie protestent contre un projet de loi d’État qui obligerait les entreprises technologiques à adhérer à un cadre de sécurité strict, notamment en créant un « coupe-circuit » pour désactiver leurs puissants modèles d’IA, dans une bataille croissante pour le contrôle réglementaire des technologies de pointe. technologie.

La législature californienne étudie des propositions qui introduiraient de nouvelles restrictions sur les entreprises technologiques opérant dans l’État, notamment les trois plus grandes start-ups d’IA OpenAI, Anthropic et Cohere, ainsi que de grands modèles linguistiques gérés par de grandes entreprises technologiques telles que Meta.

Le projet de loi, adopté par le Sénat de l’État le mois dernier et soumis au vote de son assemblée générale en août, exige que les groupes d’IA de Californie garantissent à un organisme d’État nouvellement créé qu’ils ne développeront pas de modèles dotés de « capacités dangereuses », comme créer des armes biologiques ou nucléaires ou contribuer à des attaques de cybersécurité.

Les développeurs seraient tenus de rendre compte de leurs tests de sécurité et d’introduire un soi-disant kill switch pour arrêter leurs modèles, conformément au projet de loi sur l’innovation sûre et sécurisée pour les systèmes d’intelligence artificielle frontaliers.

Mais la loi est devenue l’objet de réactions négatives de la part de nombreuses personnes dans la Silicon Valley, car elle prétend qu’elle forcerait les start-ups d’IA à quitter l’État et empêcherait des plateformes telles que Meta d’exploiter des modèles open source.

« Si quelqu’un voulait proposer des réglementations pour étouffer l’innovation, on pourrait difficilement faire mieux », a déclaré Andrew Ng, un informaticien renommé qui a dirigé des projets d’IA chez Google d’Alphabet et chez Baidu en Chine, et qui siège au conseil d’administration d’Amazon. «Cela crée des responsabilités énormes en matière de risques liés à la science-fiction, et attise ainsi la peur chez quiconque ose innover.»

Source-147

- Advertisement -

Latest