L’UE affirme que les nouvelles règles pour les IA à usage général peuvent évoluer avec le temps

L’accord politique conclu vendredi soir par les législateurs de l’Union européenne sur ce que le bloc présente comme la première loi globale au monde pour réglementer l’intelligence artificielle comprend des pouvoirs permettant à la Commission d’adapter le règlement paneuropéen sur l’IA pour suivre le rythme des développements dans ce domaine de pointe. a confirmé.

Le choix du terme par les législateurs pour réglementer les modèles les plus puissants à l’origine du boom actuel des outils d’IA générative – que la loi européenne qualifie de modèles et de systèmes d’IA « à usage général », plutôt que d’utiliser des termes de choix de l’industrie, comme « fondamental » ou « « Modèles frontières » – a également été sélectionné dans le souci de pérenniser la loi à venir, selon la Commission, les colégislateurs étant favorables à un terme générique pour éviter une classification qui pourrait être liée à l’utilisation d’une technologie spécifique (c’est-à-dire l’apprentissage automatique basé sur un transformateur).

« À l’avenir, nous pourrions avoir des approches techniques différentes. Nous recherchions donc un terme plus générique », a suggéré aujourd’hui un responsable de la Commission. « Les modèles de base, bien entendu, font partie des modèles d’IA à usage général. Ce sont des modèles qui peuvent être utilisés pour une très grande variété de tâches, ils peuvent également être intégrés dans des systèmes. Pour vous donner un exemple concret, le modèle d’IA à usage général serait GPT-4 et le système d’IA à usage général serait ChatGPT – où GPT-4 est intégré dans ChatGPT.

Comme nous l’avons signalé plus tôt, l’accord conclu par les colégislateurs du bloc comprend un niveau à faible risque et un niveau à haut risque pour réglementer les IA dites à usage général (GPAI) – comme les modèles à l’origine du boom viral des outils d’IA générative comme ChatGPT d’OpenAI. . Le déclencheur de l’application de règles à haut risque sur les technologies d’IA générative est déterminé par un seuil initial fixé dans la loi.

De plus, comme nous l’avons signalé jeudi, le projet convenu de la loi européenne sur l’IA fait référence à la quantité de calcul utilisée pour entraîner les modèles, c’est-à-dire les opérations en virgule flottante (ou FLOP), ce qui fixe la barre pour qu’un GPAI soit considéré comme ayant des « capacités à fort impact ». à 10 ^ 25 FLOP.

Mais lors d’une réunion d’information technique avec des journalistes aujourd’hui pour examiner l’accord politique, la Commission a confirmé qu’il ne s’agissait que d’un « seuil initial », affirmant qu’elle aura le pouvoir de mettre à jour ce seuil au fil du temps via des actes d’exécution/délégation (c’est-à-dire le droit dérivé). Il a également indiqué que l’idée est que le seuil des FLOP soit combiné, au fil du temps, avec « d’autres critères » qui seront développés par un nouvel organe de surveillance expert qui sera mis en place au sein de la Commission, appelé AI Office.

Pourquoi 25 FLOP ont-ils été sélectionnés comme seuil de risque élevé pour les GPAI ? La Commission suggère que ce chiffre a été choisi dans le but de refléter les modèles actuels de frontière entre générations. Cependant, il a affirmé que les législateurs n’avaient pas discuté ni même envisagé si cela s’appliquerait aux modèles actuellement en jeu, tels que le GPT-4 d’OpenAI ou le Gemini de Google, lors des trilogues marathon visant à convenir de la forme finale du livre de règles.

Un responsable de la Commission a ajouté qu’il appartiendra, dans tous les cas, aux fabricants de GPAI d’évaluer eux-mêmes si leurs modèles respectent le seuil des FLOP et, par conséquent, s’ils relèvent ou non des règles des GPAI « à risque systémique ».

« Il n’y a aucune source officielle qui dira que les modèles ChatGPT, Gemini ou chinois sont à ce niveau de FLOP », a déclaré le responsable lors du point de presse. « Sur la base des informations dont nous disposons et avec ce 10 ^ 25 que nous avons choisi, nous avons choisi un nombre qui pourrait vraiment refléter, un peu, les modèles frontières dont nous disposons. Qu’il s’agisse de capturer GPT-4, Gemini ou autres, nous ne sommes pas ici pour l’affirmer – car aussi, dans notre cadre, ce sont les entreprises qui devraient venir auto-évaluer le nombre de FLOP ou la capacité de calcul qu’elles ont utilisée. . Mais bien sûr, si vous lisez la littérature scientifique, nombreux sont ceux qui souligneront que ces chiffres sont les modèles les plus avancés à l’heure actuelle. Nous verrons ce que les entreprises évalueront car elles sont les mieux placées pour faire cette évaluation.»

« Les règles n’ont pas été rédigées en tenant compte de certaines entreprises », ont-ils ajouté. « Ils ont en réalité été rédigés dans l’idée de définir un seuil qui, d’ailleurs, peut changer car nous avons la possibilité d’être habilités à modifier ce seuil en fonction de l’évolution technologique. Cela pourrait augmenter, cela pourrait diminuer et nous pourrions également développer d’autres critères qui, à l’avenir, seront les plus appropriés pour évaluer les différents moments.

Les GPAI qui relèvent du niveau de risque élevé de la loi sur l’IA seront confrontées à des exigences réglementaires ex ante pour évaluer et atténuer les risques systémiques – ce qui signifie qu’elles doivent tester de manière proactive les résultats du modèle pour réduire les risques d’effets négatifs réels (ou « raisonnablement prévisibles ») sur la santé publique. la sûreté, la sécurité publique, les droits fondamentaux ou pour la société dans son ensemble.

Tandis que les GPAI de « niveau inférieur » ne seront confrontés qu’à des exigences de transparence plus légères, y compris l’obligation d’appliquer un filigrane aux résultats de l’IA générative.

L’exigence de filigrane pour les GPAI fait partie d’un article qui figurait dans la version originale de la Commission du cadre basé sur les risques, présenté dès avril 2021, qui se concentrait sur les exigences de transparence pour des technologies telles que les chatbots IA et les deepfakes – mais qui sera désormais s’appliquent également de manière générale aux systèmes d’IA à usage général.

« Il y a une obligation d’essayer de filigraner [generative AI-produced] texte sur la base des dernières technologies de pointe disponibles », a déclaré le responsable de la Commission, précisant les détails des obligations convenues en matière de filigrane. « À l’heure actuelle, les technologies sont bien meilleures pour filigraner des vidéos et des fichiers audio que pour filigraner du texte. Mais ce que nous demandons, c’est que ce tatouage s’effectue sur la base d’une technologie de pointe – et nous espérons bien sûr qu’avec le temps, la technologie mûrira et sera aussi [good] que possible. »

Les créateurs de modèles GPAI doivent également s’engager à respecter les règles de l’UE en matière de droit d’auteur, notamment en se conformant à une clause de non-participation lisible par machine à l’exploration de textes et de données contenue dans la directive européenne sur le droit d’auteur – et une exclusion des exigences de transparence de la loi pour les GPAI open source le fait. pas Cela va jusqu’à les libérer des obligations en matière de droit d’auteur, la Commission confirmant que la directive sur le droit d’auteur s’appliquera toujours aux GPAI open source.

En ce qui concerne l’Office de l’IA, qui jouera un rôle clé dans la définition des seuils de classification des risques pour les GPAI, la Commission a confirmé qu’aucun budget ni effectif n’ont encore été définis pour l’organisme d’experts. (Cependant, aux petites heures du samedi matin, le commissaire européen au marché intérieur, Thierry Breton, a suggéré que l’UE s’apprêtait à accueillir « beaucoup » de nouveaux collègues alors qu’elle mettait en place cet organisme de surveillance de l’IA à usage général.)

Interrogé sur les ressources du Bureau de l’IA, un responsable de la Commission a déclaré que cela serait décidé à l’avenir par l’exécutif européen qui prendrait « une décision appropriée et officielle ». « L’idée est que nous puissions créer une ligne budgétaire dédiée au Bureau et que nous puissions également recruter des experts nationaux des États membres si nous le souhaitons en plus des agents contractuels et du personnel permanent. Et une partie de ce personnel sera également déployée au sein de la Commission européenne », ont-ils ajouté.

L’AI Office travaillera en collaboration avec un nouveau comité consultatif scientifique que la loi créera également pour aider l’organisme à mieux comprendre les capacités des modèles d’IA avancés dans le but de réglementer le risque systémique. « Nous avons identifié un rôle important pour la création d’un comité scientifique, qui pourrait aider efficacement le Bureau de l’intelligence artificielle à comprendre s’il existe de nouveaux risques qui n’ont pas encore été identifiés », a noté le responsable. « Et, par exemple, signalez également certaines alertes concernant les modèles qui ne sont pas pris en compte par le seuil FLOP et qui, pour certaines raisons, pourraient en fait donner lieu à des risques importants que les gouvernements devraient examiner. »

Alors que l’exécutif européen semble vouloir garantir que les détails clés de la nouvelle loi soient publiés même s’il n’y a pas encore de texte final – parce que les travaux visant à consolider ce qui a été convenu par les co-législateurs au cours des pourparlers marathon de 38 heures qui se sont terminés vendredi soir C’est la prochaine tâche à laquelle le bloc sera confronté dans les semaines à venir – il pourrait encore y avoir des démons qui se cachent dans ce détail. Il vaudra donc la peine d’examiner le texte qui sortira, probablement en janvier ou février.

De plus, même si la réglementation complète ne sera pas opérationnelle avant quelques années, l’UE fera pression pour que les GPAI respectent les codes de bonnes pratiques en attendant – les géants de l’IA seront donc sous pression pour s’en tenir au plus près des réglementations strictes à venir. le plus bas possible, via le Pacte IA du bloc.

La loi de l’UE sur l’IA elle-même ne sera probablement pas pleinement en vigueur avant 2026 – étant donné que le texte final doit, une fois compilé (et traduit dans les langues des États membres), être confirmé par des votes finaux au Parlement et au Conseil, après quoi il y a un court délai avant que le texte de la loi soit publié au Journal officiel de l’UE et un autre avant son entrée en vigueur.

Les législateurs européens ont également convenu d’une approche progressive des exigences de conformité de la loi, avec un délai de 24 mois avant que les règles à haut risque ne s’appliquent aux GPAI.

La liste des cas d’utilisation strictement interdits de l’IA s’appliquera plus tôt, six mois seulement après l’entrée en vigueur de la loi – ce qui pourrait potentiellement signifier l’interdiction de certaines utilisations de l’IA à « risque inacceptable », telles que la notation sociale ou le style Clearview AI. le grattage de selfies pour les bases de données de reconnaissance faciale, sera opérationnel au second semestre 2024, à condition qu’aucune opposition de dernière minute au règlement ne surgisse au sein du Conseil ou du Parlement. (Pour la liste complète des utilisations interdites de l’IA, lisez notre article précédent.)

Source-146