L’Europe franchit une nouvelle étape importante vers l’adoption d’un règlement sur l’IA

Le Parlement européen a voté pour confirmer son mandat de négociation pour la loi sur l’IA, franchissant une étape majeure qui ouvre la prochaine étape des négociations vers un règlement paneuropéen sur l’intelligence artificielle.

Les parlementaires ont soutenu une version modifiée de la proposition de la Commission qui élargit le règlement d’une manière qui, selon eux, vise à garantir que l’IA développée et utilisée en Europe est « pleinement conforme aux droits et valeurs de l’UE, y compris la surveillance humaine, la sécurité, la confidentialité, la transparence , la non-discrimination et le bien-être social et environnemental ».

Parmi les changements soutenus par les députés, figure une interdiction totale de la surveillance biométrique à distance et de la police prédictive. Ils ont également ajouté une interdiction de « grattage non ciblé d’images faciales sur Internet ou de séquences de vidéosurveillance pour créer des bases de données de reconnaissance faciale » – donc fondamentalement une interdiction stricte de Clearview AI et de ses semblables.

L’interdiction proposée de la surveillance biométrique à distance s’appliquerait à la fois aux applications en temps réel ou après coup de technologies telles que la reconnaissance faciale, sauf, dans ce dernier cas, pour les forces de l’ordre chargées de poursuivre les crimes graves avec un soupir judiciaire.

Les députés ont également ajouté une interdiction d’utiliser la technologie de reconnaissance émotionnelle utilisée par les forces de l’ordre, les agences frontalières, les lieux de travail et les établissements d’enseignement.

Les parlementaires ont également élargi la classification des systèmes d’IA à haut risque pour inclure ceux qui nuisent considérablement à la santé, à la sécurité, aux droits fondamentaux ou à l’environnement des personnes, ainsi que les systèmes d’IA utilisés pour influencer les électeurs et le résultat des élections.

De plus grandes plateformes de médias sociaux qui utilisent des algorithmes pour recommander du contenu ont également été ajoutées à la liste à haut risque par les députés.

Le vote en plénière fait suite au soutien de la commission à la proposition modifiée le mois dernier après que les députés de différents groupes politiques ont expliqué comment ils souhaitaient modifier le texte de la Commission, notamment en ajoutant des obligations aux fabricants de l’IA dite à usage général.

En réponse aux développements rapides de l’IA générative, les députés ont soutenu l’imposition d’un ensemble d’obligations sur les modèles d’IA fondamentaux/à usage général, tels que la technologie qui sous-tend le chatbot d’IA d’OpenAI ChatGPT, exigeant que ces systèmes identifient et atténuent les risques avant le placement sur le marché, ainsi que l’application de divulgations de transparence au contenu généré par l’IA et la mise en œuvre de garanties contre la génération de contenu illégal.

Les fabricants d’IA à usage général doivent également publier des « résumés détaillés » des informations protégées par le droit d’auteur utilisées pour former leurs modèles dans le cadre de la proposition des députés.

Lors d’une tournée dans les capitales européennes pour rencontrer des législateurs le mois dernier, le PDG d’OpenAI, Sam Altman, a critiqué cet aspect de la proposition de l’UE. Il a suggéré que l’entreprise pourrait être obligée de retirer ses services dans la région si elle n’était pas en mesure de se conformer, déclarant aux journalistes qu’il espérait que les obligations seraient annulées.

En l’occurrence, le vote en plénière d’aujourd’hui montre un soutien écrasant parmi les parlementaires à la version modifiée du projet de loi – y compris les obligations proposées pour les IA à usage général – avec 499 voix pour et seulement 28 contre (plus 93 abstentions).

Le vote approuvant le mandat signifie que les discussions entre le parlement et les gouvernements des États membres de l’UE peuvent désormais démarrer – le premier trilogue devant avoir lieu ce soir.

Commentant dans une déclaration après le vote, le co-rapporteur Brando Benifei a déclaré :

Tous les regards sont braqués sur nous aujourd’hui. Alors que les entreprises Big Tech tirent la sonnette d’alarme sur leurs propres créations, l’Europe est allée de l’avant et a proposé une réponse concrète aux risques que l’IA commence à faire courir. Nous voulons que le potentiel positif de créativité et de productivité de l’IA soit exploité, mais nous nous battrons également pour protéger notre position et contrer les dangers pour nos démocraties et nos libertés lors des négociations avec le Conseil.

Dans une autre déclaration à l’appui, le co-rapporteur Dragos Tudorache a ajouté :

La loi sur l’intelligence artificielle donnera le ton dans le monde entier pour le développement et la gouvernance de l’intelligence artificielle, en veillant à ce que cette technologie, appelée à transformer radicalement nos sociétés par les avantages massifs qu’elle peut offrir, évolue et soit utilisée conformément aux valeurs européennes de démocratie, fondamentales droits et l’État de droit.

La version de la loi sur l’IA que les députés européens ont soutenue aujourd’hui ajoute également des exemptions pour les activités de recherche et les composants d’IA fournis dans le cadre de licences open source, qui, selon les députés, assureront le soutien à l’innovation, ainsi que des bacs à sable réglementaires pour les systèmes de test qui seront établis dans le cadre.

La proposition des députés ajoute également une série de droits des consommateurs sur la prise de décision en matière d’IA, y compris la possibilité pour les consommateurs de demander un recours collectif si un système d’IA leur a causé du tort.

L’organisation européenne des consommateurs, le BEUC, a salué ces changements mais a critiqué le parlement pour ne pas avoir soutenu une interdiction totale de l’utilisation des IA de reconnaissance émotionnelle (puisque la proposition ne limite pas l’utilisation commerciale de cette huile de serpent).

Il pense également que les députés européens ont donné aux développeurs trop de latitude pour décider si leurs systèmes entrent ou non dans la catégorie à haut risque, ce qui, selon eux, pourrait nuire à l’efficacité du cadre basé sur les risques.

Cela peut s’avérer une pomme de discorde lors des discussions en trilogue qui doivent trouver un compromis entre la position du Conseil de l’UE, qui est l’organe composé des gouvernements des États membres, et les législateurs du parlement pour parvenir à l’accord politique nécessaire sur un texte final et sceller le dossier.

En règle générale, le Conseil de l’UE adopte une ligne plus favorable à l’industrie tandis que le Parlement a tendance à se préoccuper davantage des droits fondamentaux. Il reste donc à voir où les deux parties se rencontreront au milieu sur la réglementation de l’IA.

S’ils ne parviennent pas à s’entendre, le processus législatif de l’UE peut s’enliser, voire échouer. Mais il y a une impulsion à Bruxelles pour faire passer ce dossier au-dessus de la ligne étant donné l’attention mondiale désormais portée sur la réglementation de l’IA. (Être le premier à frapper avec un règlement démocratique pour l’IA offre au bloc des opportunités d’exercer une influence au-delà de ses frontières alors que d’autres juridictions s’efforcent de trouver leurs propres approches pour réglementer un domaine complexe de technologie en développement rapide.)

Le Conseil a adopté sa position sur le dossier retour en décembre. À cette époque, les États membres étaient largement favorables au report de ce qu’il fallait faire au sujet de l’IA à usage général — à une législation de mise en œuvre supplémentaire. Mais, compte tenu de ce qui s’est passé entre-temps, avec des outils d’IA génératifs comme ChatGPT qui se placent au centre des discussions sur la technologie et génèrent de multiples appels à la réglementation (y compris de la part de nombreux types d’industries technologiques eux-mêmes), il sera intéressant de voir si les États membres sera d’accord avec les députés sur la nécessité d’ajouter des obligations pour cette classe de systèmes d’IA dans le texte de la loi sur l’IA.

L’exécutif de l’UE a présenté la proposition initiale du cadre basé sur les risques pour l’IA en avril 2021. Bien que ce premier projet de texte de la Commission n’ait pas abordé de manière aussi approfondie le sujet de l’IA à usage général, il a proposé des dispositions de transparence pour les chatbots et la technologie deepfake. Ainsi, même à l’époque, les législateurs européens estimaient que les consommateurs devraient être informés qu’ils interagissent avec du contenu généré par des machines.

Bien que la Commission garde l’espoir que les pourparlers en trilogue sur le dossier de la loi sur l’IA aboutiront à un accord politique d’ici la fin de cette année, il y aura encore une période de mise en œuvre – de sorte que la législation ne s’appliquera probablement pas avant 2026.

C’est pourquoi l’UE travaille également sur plusieurs initiatives volontaires qui visent à inciter les entreprises d’IA à s’autoréguler en matière de sécurité dans l’intervalle.

Source-146