L’interdiction de l’IA qui « subvertit le pouvoir de l’État » en Chine pourrait refroidir son industrie naissante

Les régulateurs chinois ont proposé des règles restrictives concernant les modèles d’IA comme ChatGPT en cours de construction dans le pays, exigeant l’identification des utilisateurs et des examens de sécurité, et interdisant « tout contenu qui subvertit le pouvoir de l’État, prône le renversement du système socialiste, incite à diviser le pays ou porte atteinte à l’unité nationale ». .”

Les règles arrivent dans la foulée des entreprises technologiques chinoises qui déploient leurs versions de grands modèles de langage à usage général, des systèmes d’IA polyvalents qui peuvent converser en langage naturel et effectuer un nombre surprenant de tâches. Alors que la réception des modèles de SenseTime, Baidu et Alibaba au cours du mois dernier suggère qu’ils sont quelque peu en retard par rapport à GPT-4, il est clair que l’industrie y est également dédiée au développement de ces capacités.

Malheureusement, peu de temps après le lancement du modèle Tongyi Qianwen d’Alibaba, l’un des régulateurs technologiques du pays, l’Administration du cyberespace de Chine, a proposé des restrictions susceptibles d’étouffer les innovations pertinentes – et les ambitions de l’industrie chinoise de l’IA avec elles.

Le projet de règles n’est pas disponible en anglais (j’ai pris la citation ci-dessus de la traduction du Financial Times syndiqué à Ars Technica) mais peut être consulté sur le site Web du régulateur ici. La première partie de l’article 4 interdit l’IA générative qui subvertit le pouvoir et l’autorité du gouvernement ou remet en question l’unité nationale, ainsi que diverses autres catégories d’interdictions comme la discrimination ethnique, le terrorisme, etc.

Ce type de clause de moralité fourre-tout est monnaie courante en Chine, mais il se trouve que c’est le type de restriction que l’IA générative est particulièrement incapable de respecter. Même le LLM le plus soigneusement formé et réglé semble être capable d’être amené à dire toutes sortes de choses répréhensibles. Que les censeurs chinois décident que cela est conforme à la loi ou non dépend plus ou moins entièrement d’eux, ce qui rend quelque peu difficile la perspective de consacrer des ressources sérieuses à un tel projet.

Bien sûr, une grande partie de l’industrie chinoise existe sous un poignard suspendu de la même manière, et bien que les régulateurs chinois soient capricieux, ils ne sont pas assez fous pour gâcher les fruits des années de soutien de la R&D du gouvernement dans le pays. Il est probable que, contrairement à d’autres lois limitant le contenu, cela agira davantage comme une feuille de vigne et une excuse à toute épreuve pour que le gouvernement exerce une influence – et non une interdiction générale.

Au contraire, ce sont les autres exigences qui peuvent ralentir le développement de l’IA.

Le projet de règles du CAC exige, entre autres, que les fournisseurs assument la responsabilité des données de formation des modèles, y compris des paramètres difficiles à mesurer comme l’authenticité, l’objectivité et la diversité ; les utilisateurs des services doivent être vérifiés en tant que personnes réelles ; les informations personnelles et la réputation doivent être respectées, faute de quoi les régulateurs pourraient engager la responsabilité du fournisseur ; le contenu généré doit être étiqueté comme tel ; et de nombreuses autres restrictions.

Certaines de ces exigences pourraient certainement être considérées comme prudentes ou même critiques pour une industrie de l’IA responsable, mais la vérité est que beaucoup d’entre elles seraient incroyablement difficiles, voire impossibles à mettre en œuvre par les entreprises et les efforts de R&D d’aujourd’hui. OpenAI a obtenu son succès en partie parce qu’il travaille dans un vide réglementaire presque complet. Si la loi exigeait que l’entreprise, par exemple, obtienne l’autorisation des détenteurs de droits sur le texte et les médias qu’elle a utilisés pour former ses modèles, elle attendrait probablement encore pour construire GPT-2.

Si une startup d’IA ou même une entreprise établie ne peut pas opérer en toute confiance en Chine de peur de violer ces règles à grande échelle, elle peut décider que ses ressources sont mieux dépensées ailleurs. Aussi rapide que soit cette industrie, un tel revers peut être très difficile à regagner.

Le Financial Times a cité le directeur général d’Alibaba, Daniel Zhang, disant que « dans 10 à 20 ans, quand nous regarderons en arrière, nous réaliserons que nous étions tous sur la même ligne de départ ». C’est presque certainement vrai, et dans une perspective similaire, nous pourrions bien voir comment la réglementation a étranglé l’innovation – ou peut-être comment elle a empêché un monopole stagnant ou protégé les gens contre le vol de masse bien organisé de leurs données.

Les projets de règles sont ouverts aux commentaires (par les parties en Chine, évidemment) pour le mois prochain, après quoi ils peuvent ou non être révisés, et devraient entrer en vigueur plus tard cette année.

Source-146