OpenAI et Anthropic acceptent de partager leurs modèles avec l’Institut américain de sécurité de l’IA

OpenAI et Anthropic ont convenu de partager des modèles d’IA – avant et après leur publication – avec l’AI Safety Institute américain. L’agence, créée par décret du président Biden en 2023, fournira aux entreprises des retours d’expérience en matière de sécurité pour améliorer leurs modèles. Le PDG d’OpenAI, Sam Altman, a fait allusion à cet accord plus tôt ce mois-ci.

L’Institut américain de sécurité de l’IA n’a pas mentionné d’autres entreprises qui s’intéressent à l’IA. Mais dans une déclaration à Engadget, un porte-parole de Google a déclaré à Engadget que la société était en pourparlers avec l’agence et partagerait plus d’informations dès qu’elles seraient disponibles. Cette semaine, Google a commencé à déployer des modèles mis à jour de chatbot et de générateur d’images pour Gemini.

« La sécurité est essentielle pour alimenter l’innovation technologique de rupture. Grâce à ces accords, nous sommes impatients de commencer nos collaborations techniques avec Anthropic et OpenAI pour faire progresser la science de la sécurité de l’IA », a écrit Elizabeth Kelly, directrice de l’US AI Safety Institute, dans un communiqué. « Ces accords ne sont qu’un début, mais ils constituent une étape importante dans nos efforts pour contribuer à gérer de manière responsable l’avenir de l’IA. »

L’Institut américain de sécurité de l’IA fait partie du National Institute of Standards and Technology (NIST). Il crée et publie des lignes directrices, des tests de référence et des bonnes pratiques pour tester et évaluer les systèmes d’IA potentiellement dangereux. « Tout comme l’IA a le potentiel de faire beaucoup de bien, elle a aussi le potentiel de causer beaucoup de tort, depuis les cyberattaques activées par l’IA à une échelle inédite jusqu’aux armes biologiques formulées par l’IA qui pourraient mettre en danger la vie de millions de personnes », a déclaré la vice-présidente Kamala Harris fin 2023 après la création de l’agence.

Cet accord, le premier du genre, est signé par le biais d’un protocole d’accord (formel mais non contraignant). L’agence aura accès aux « principaux nouveaux modèles » de chaque entreprise avant et après leur publication publique. L’agence décrit ces accords comme des recherches collaboratives visant à atténuer les risques et à évaluer les capacités et la sécurité. L’Institut américain de sécurité de l’IA collaborera également avec l’Institut britannique de sécurité de l’IA.

Cette décision intervient alors que les régulateurs fédéraux et étatiques tentent d’établir des garde-fous pour l’IA alors que cette technologie en pleine évolution n’en est qu’à ses balbutiements. Mercredi, l’Assemblée de l’État de Californie a approuvé un projet de loi sur la sécurité de l’IA (SB 10147) qui impose des tests de sécurité pour les modèles d’IA dont le développement coûte plus de 100 millions de dollars ou qui nécessitent une certaine quantité de puissance de calcul. Le projet de loi exige que les entreprises d’IA disposent de commutateurs d’arrêt capables d’arrêter les modèles s’ils deviennent « difficiles à manier ou incontrôlables ».

Contrairement à l’accord non contraignant avec le gouvernement fédéral, le projet de loi californien aurait un certain pouvoir d’application. Il donne au procureur général de l’État le droit d’engager des poursuites si les développeurs d’IA ne se conforment pas, en particulier lors d’événements à haut niveau de menace. Cependant, il nécessite encore un vote de procédure supplémentaire – et la signature du gouverneur Gavin Newsom, qui aura jusqu’au 30 septembre pour décider s’il lui donne son feu vert.

Mise à jour, 29 août 2024, 16 h 53 HE : Cette histoire a été mise à jour pour ajouter une réponse d’un porte-parole de Google.

Source-145