Google et OpenAI partageront des modèles d’IA avec le gouvernement britannique

La surveillance de l’IA par le Royaume-Uni comprendra des opportunités d’étudier directement la technologie de certaines entreprises. Dans un discours prononcé à la London Tech Week, le Premier ministre Rishi Sunak a révélé que Google DeepMind, OpenAI et Anthropic se sont engagés à fournir « un accès précoce ou prioritaire » aux modèles d’IA dans un souci de recherche et de sécurité. Cela améliorera idéalement les inspections de ces modèles et aidera le gouvernement à reconnaître les « opportunités et les risques », a déclaré Sunak.

On ne sait pas exactement quelles données les entreprises technologiques partageront avec le gouvernement britannique. Nous avons demandé des commentaires à Google, OpenAI et Anthropic.

L’annonce intervient des semaines après que les responsables ont annoncé qu’ils procéderaient à une première évaluation de la responsabilité, de la sécurité, de la transparence et d’autres préoccupations éthiques du modèle d’IA. L’Autorité de la concurrence et des marchés du pays devrait jouer un rôle clé. Le Royaume-Uni s’est également engagé à dépenser 100 millions de livres sterling (environ 125,5 millions de dollars) pour créer un groupe de travail modèle de la Fondation qui développera une IA « souveraine » destinée à développer l’économie britannique tout en minimisant les problèmes éthiques et techniques.

Les chefs de file et les experts de l’industrie ont appelé à un arrêt temporaire du développement de l’IA, craignant que les créateurs ne se préoccupent suffisamment de la sécurité. Les modèles d’IA générative comme GPT-4 d’OpenAI et Claude d’Anthropic ont été salués pour leur potentiel, mais ont également soulevé des inquiétudes concernant les inexactitudes, la désinformation et les abus comme la triche. La décision du Royaume-Uni limite théoriquement ces problèmes et attrape les modèles problématiques avant qu’ils n’aient fait beaucoup de dégâts.

Cela ne donne pas nécessairement au Royaume-Uni un accès complet à ces modèles et au code sous-jacent. De même, rien ne garantit que le gouvernement détectera tous les problèmes majeurs. L’accès peut cependant fournir des informations pertinentes. Au moins, l’effort promet une transparence accrue pour l’IA à un moment où l’impact à long terme de ces systèmes n’est pas tout à fait clair.

Source-145