L’organisme de surveillance antitrust du Royaume-Uni annonce un premier examen de l’IA générative

Eh bien c’était rapide. L’organisme britannique de surveillance de la concurrence a annoncé un premier examen des «modèles fondamentaux de l’IA», tels que les grands modèles de langage (LLM) qui sous-tendent ChatGPT d’OpenAI et New Bing de Microsoft. Les modèles d’IA générative qui alimentent les plates-formes d’art de l’IA telles que DALL-E ou Midjourney d’OpenAI entreront probablement également dans leur champ d’application.

L’Autorité de la concurrence et des marchés (CMA) a déclaré que son examen portera sur les considérations de concurrence et de protection des consommateurs dans le développement et l’utilisation des modèles fondamentaux d’IA – dans le but de comprendre « comment les modèles de base se développent et produisent une évaluation des conditions et des principes qui guidera le mieux le développement des modèles de fondation et leur utilisation à l’avenir ».

Il propose de publier l’examen « début septembre », avec une date limite du 2 juin pour que les parties prenantes intéressées soumettent des réponses pour éclairer son travail.

« Les modèles de base, qui incluent de grands modèles de langage et l’intelligence artificielle générative (IA), qui ont émergé au cours des cinq dernières années, ont le potentiel de transformer une grande partie de ce que font les gens et les entreprises. Pour garantir que l’innovation dans l’IA se poursuive d’une manière qui profite aux consommateurs, aux entreprises et à l’économie britannique, le gouvernement a demandé aux régulateurs, y compris le [CMA], pour réfléchir à la manière dont le développement et le déploiement innovants de l’IA peuvent être soutenus par cinq principes fondamentaux : sûreté, sécurité et robustesse ; une transparence et une explicabilité appropriées ; justice; responsabilisation et gouvernance; et la contestabilité et la réparation », a écrit la CMA dans un communiqué de presse.

Le Center for Research on Foundation Models du Human-Centered Artificial Intelligence Center de l’Université de Stanford est crédité d’avoir inventé le terme «modèles fondamentaux», en 2021, pour désigner les systèmes d’IA qui se concentrent sur la formation d’un modèle sur une énorme quantité de données et l’adapter à de nombreuses applications.

« Le développement de l’IA touche à un certain nombre de questions importantes, notamment la sûreté, la sécurité, le droit d’auteur, la confidentialité et les droits de l’homme, ainsi que le fonctionnement des marchés. Bon nombre de ces questions sont examinées par le gouvernement ou d’autres organismes de réglementation, donc cet examen initial se concentrera sur les questions que l’AMC est la mieux placée pour aborder – quelles sont les implications probables du développement des modèles de base de l’IA pour la concurrence et la protection des consommateurs ? » a ajouté la CMA.

Dans un communiqué, sa PDG, Sarah Cardell, a également déclaré :

L’IA a fait irruption dans la conscience publique au cours des derniers mois, mais elle est sur notre radar depuis un certain temps. Il s’agit d’une technologie qui se développe rapidement et qui a le potentiel de transformer la façon dont les entreprises se font concurrence et de stimuler une croissance économique substantielle.

Il est crucial que les avantages potentiels de cette technologie transformatrice soient facilement accessibles aux entreprises et aux consommateurs britanniques, tandis que les gens restent protégés contre des problèmes tels que les informations fausses ou trompeuses. Notre objectif est d’aider cette nouvelle technologie à évolution rapide à se développer de manière à garantir des marchés ouverts et concurrentiels et une protection efficace des consommateurs.

Plus précisément, le régulateur britannique de la concurrence a déclaré que son examen initial des modèles fondamentaux de l’IA :

  • examiner comment les marchés concurrentiels des modèles de fondation et leur utilisation pourraient évoluer
  • explorer les opportunités et les risques que ces scénarios pourraient apporter pour la concurrence et la protection des consommateurs
  • produire des principes directeurs pour soutenir la concurrence et protéger les consommateurs à mesure que les modèles de base de l’IA se développent

Bien qu’il soit peut-être tôt pour que le régulateur antitrust procède à un examen d’une technologie émergente aussi rapide, la CMA agit sur instruction du gouvernement.

Un livre blanc sur l’IA publié en mars a signalé la préférence des ministres d’éviter de fixer des règles sur mesure (ou des organes de surveillance) pour régir les utilisations de l’intelligence artificielle à ce stade. Cependant Les ministres ont déclaré que les régulateurs britanniques existants – y compris la CMA, dont le nom a été directement vérifié – devraient publier des directives pour encourager des utilisations sûres, équitables et responsables de l’IA.

L’AMC affirme que son examen initial des modèles d’IA fondamentaux est conforme aux instructions du livre blanc, où le gouvernement a parlé des régulateurs existants effectuant une « analyse détaillée des risques » afin d’être en mesure de procéder à des mesures d’application potentielles, c’est-à-dire sur des produits dangereux, applications injustes et irresponsables de l’IA, en utilisant leurs pouvoirs existants.

Le régulateur souligne également sa mission principale – soutenir des marchés ouverts et concurrentiels – comme une autre raison de jeter un coup d’œil à l’IA générative maintenant.

Notamment, le chien de garde de la concurrence devrait obtenir des pouvoirs supplémentaires pour réglementer Big Tech dans les années à venir, dans le cadre de plans mis en veilleuse par le gouvernement du Premier ministre Rishi Sunak le mois dernier, lorsque les ministres ont déclaré qu’il irait de l’avant avec une longue traînée ( mais avec beaucoup de retard) réforme ex ante visant le pouvoir de marché des géants du numérique.

On s’attend à ce que l’unité des marchés numériques de la CMA, opérationnelle depuis 2021 sous une forme fictive, obtienne (enfin) des pouvoirs législatifs dans les années à venir pour appliquer des règles proactives «pro-concurrence» adaptées aux plateformes réputées ont un «statut de marché stratégique» (SMS). Nous pouvons donc supposer que les fournisseurs de puissants modèles d’IA fondamentaux pourraient, en fin de compte, être jugés comme ayant des SMS, ce qui signifie qu’ils pourraient s’attendre à être confrontés à des règles sur mesure sur la manière dont ils doivent opérer vis-à-vis de leurs rivaux et des consommateurs sur le marché britannique.

L’organisme britannique de surveillance de la protection des données, l’ICO, a également un œil sur l’IA générative. C’est un autre organisme de surveillance existant que le gouvernement a chargé de prêter une attention particulière à l’IA dans le cadre de son plan d’orientation spécifique au contexte pour orienter le développement de la technologie grâce à l’application des lois existantes.

Dans un article de blog le mois dernier, Stephen Almond, directeur exécutif des risques réglementaires de l’ICO, a proposé quelques conseils et un petit avertissement aux développeurs d’IA générative en ce qui concerne le respect des règles britanniques de protection des données. « Les organisations développant ou utilisant l’IA générative devraient considérer leurs obligations en matière de protection des données dès le départ, en adoptant une approche de protection des données dès la conception et par défaut », a-t-il suggéré. « Ce n’est pas facultatif – si vous traitez des données personnelles, c’est la loi. »

De l’autre côté de la Manche dans l’Union européenne, les législateurs sont en train de décider d’un ensemble fixe de règles susceptibles de s’appliquer à l’IA générative.

Les négociations en vue d’un texte final pour le nouveau règlement de l’UE sur l’IA sont en cours – mais actuellement, l’accent est mis sur la manière de réglementer les modèles fondamentaux via des amendements au cadre basé sur les risques pour réglementer les utilisations de l’IA que le bloc a publié dans un projet il y a plus de deux ans.

Il reste à voir où les colégislateurs de l’UE se retrouveront sur ce que l’on appelle parfois aussi l’IA à usage général. Mais, comme nous l’avons signalé récemment, les parlementaires font pression pour une approche à plusieurs niveaux pour s’attaquer aux problèmes de sécurité avec des modèles fondamentaux ; la complexité des responsabilités dans les chaînes d’approvisionnement de l’IA ; et pour répondre aux problèmes de contenu spécifiques (comme le droit d’auteur) associés à l’IA générative.

Ajoutez à cela que la législation européenne sur la protection des données s’applique déjà à l’IA, bien sûr. Et des enquêtes axées sur la confidentialité de modèles comme ChatGPT sont en cours dans le bloc – y compris en Italie où une intervention du chien de garde local a conduit OpenAI à précipiter une série de divulgations et de contrôles de confidentialité le mois dernier.

Le comité européen de la protection des données a également récemment mis en place un groupe de travail pour soutenir la coordination entre les différentes autorités de protection des données sur les enquêtes sur le chatbot IA. Parmi les autres enquêteurs sur ChatGPT, citons le chien de garde de la confidentialité en Espagne.

Source-146