mardi, novembre 5, 2024

La Chine fixe des règles plus strictes pour la formation de modèles d’IA générative

La Chine a publié un projet de réglementation de sécurité pour les entreprises fournissant des services d’intelligence artificielle (IA) générative, comprenant des restrictions sur les sources de données utilisées pour la formation des modèles d’IA.

Le mercredi 11 octobre, les règlements proposés ont été libéré par le Comité national de normalisation de la sécurité de l’information, composé de représentants de l’Administration chinoise du cyberespace (CAC), du ministère de l’Industrie et des Technologies de l’information et des organismes chargés de l’application de la loi.

L’IA générative, comme en témoignent les réalisations de ChatGPT d’OpenAI, acquiert la capacité d’effectuer des tâches grâce à l’analyse de données historiques et génère de nouveaux contenus, tels que du texte et des images, sur la base de cette formation.

Capture d’écran de la publication du Comité national de normalisation de la sécurité de l’information (NISSC). Source : NISSC

Le comité recommande d’effectuer une évaluation de sécurité sur le contenu utilisé pour former des modèles d’IA générative accessibles au public. Le contenu dépassant « 5 % sous la forme d’informations illégales et préjudiciables » sera désigné pour être mis sur liste noire. Cette catégorie comprend les contenus prônant le terrorisme, la violence, la subversion du système socialiste, l’atteinte à la réputation du pays et les actions portant atteinte à la cohésion nationale et à la stabilité de la société.

Le projet de règlement souligne également que les données soumises à la censure sur l’internet chinois ne doivent pas servir de matériel de formation pour ces modèles. Cette évolution intervient un peu plus d’un mois après que les autorités de régulation ont accordé l’autorisation à diverses entreprises technologiques chinoises, dont l’éminent moteur de recherche Baidu, de présenter au grand public leurs chatbots génératifs basés sur l’IA.

Depuis avril, le CAC a constamment communiqué son obligation aux entreprises de fournir des évaluations de sécurité aux organismes de réglementation avant d’introduire au public des services génératifs basés sur l’IA. En juillet, le régulateur du cyberespace a publié un ensemble de lignes directrices régissant ces services, qui, selon les analystes du secteur, étaient considérablement moins lourdes que les mesures proposées dans le projet initial d’avril.

En rapport: Biden envisage de renforcer les contrôles sur les puces IA en Chine via des tiers

Le projet de dispositions de sécurité récemment dévoilé nécessite que les organisations engagées dans la formation de ces modèles d’IA obtiennent le consentement explicite des personnes dont les données personnelles, y compris les informations biométriques, sont utilisées pour la formation. De plus, les lignes directrices comprennent des instructions complètes sur la prévention des violations liées à la propriété intellectuelle.

Les nations du monde entier ont du mal à établir des cadres réglementaires pour cette technologie. La Chine considère l’IA comme un domaine dans lequel elle aspire à rivaliser avec les États-Unis et a pour ambition de devenir un leader mondial dans ce domaine d’ici 2030.

Revue: « L’IA a tué l’industrie » : le patron d’EasyTranslate parle de son adaptation au changement