Les régulateurs européens adoptent la première réglementation radicale de la planète en matière d’IA

Le Parlement européen a adopté une législation radicale pour réglementer l’intelligence artificielle, près de trois ans après l’adoption du projet de règles. Fonctionnaires en décembre. Mercredi, les députés ont approuvé la loi sur l’IA par 523 voix pour et 46 contre, avec 49 abstentions.

L’UE affirme que les réglementations visent à « protéger les droits fondamentaux, la démocratie, l’État de droit et la durabilité environnementale contre l’IA à haut risque, tout en stimulant l’innovation et en faisant de l’Europe un leader dans le domaine ». La loi définit les obligations des applications d’IA en fonction des risques et des impacts potentiels.

La législation n’est pas encore devenue loi. Elle reste soumise au contrôle des juristes-linguistes, tandis que le Conseil européen doit l’appliquer formellement. Mais la loi sur l’IA devrait entrer en vigueur avant la fin de la législature, avant les prochaines élections législatives début juin.

La plupart des dispositions entreront en vigueur 24 mois après l’entrée en vigueur de la loi sur l’IA, mais les interdictions des applications interdites s’appliqueront après six mois. L’UE interdit les pratiques qui, selon elle, menacent les droits des citoyens. Les « systèmes de catégorisation biométrique basés sur des caractéristiques sensibles » seront interdits, tout comme le « grattage non ciblé » d’images de visages à partir d’images de vidéosurveillance et du Web pour créer des bases de données de reconnaissance faciale. L’activité de Clearview AI entrerait dans cette catégorie.

D’autres applications qui seront interdites incluent ; la reconnaissance des émotions dans les écoles et les lieux de travail ; et « une IA qui manipule le comportement humain ou exploite les vulnérabilités des personnes ». Certains aspects de la police prédictive seront interdits, par exemple lorsqu’elle repose entièrement sur l’évaluation des caractéristiques d’une personne (par exemple, la déduction de son orientation sexuelle ou de ses opinions politiques) ou sur son profilage. Bien que la loi sur l’IA interdise globalement l’utilisation par les forces de l’ordre de systèmes d’identification biométriques, celle-ci sera autorisée dans certaines circonstances avec autorisation préalable, par exemple pour aider à retrouver une personne disparue ou prévenir une attaque terroriste.

Les applications jugées à haut risque, y compris l’utilisation de l’IA dans les forces de l’ordre et les soins de santé, sont soumises à . Ils ne doivent pas faire de discrimination et doivent respecter les règles de confidentialité. Les développeurs doivent montrer que les systèmes sont également transparents, sûrs et explicables pour les utilisateurs. Quant aux systèmes d’IA que l’UE juge à faible risque (comme les filtres anti-spam), les développeurs doivent toujours informer les utilisateurs qu’ils interagissent avec le contenu généré par l’IA.

La loi prévoit également certaines règles en matière d’IA générative et de médias manipulés. Les deepfakes et toutes les autres images, vidéos et audio générés par l’IA devront être clairement étiquetés. Les modèles d’IA devront également respecter les lois sur le droit d’auteur. « Les titulaires de droits peuvent choisir de réserver leurs droits sur leurs œuvres ou autres objets pour empêcher l’exploration de textes et de données, à moins que cela ne soit fait à des fins de recherche scientifique », indique le texte de la loi sur l’IA. « Lorsque les droits de non-participation ont été expressément réservés de manière appropriée, les fournisseurs de modèles d’IA à usage général doivent obtenir une autorisation des titulaires de droits s’ils souhaitent effectuer une exploration de textes et de données sur ces œuvres. » Toutefois, les modèles d’IA construits uniquement à des fins de recherche, de développement et de prototypage sont exonérés.

Les modèles d’IA polyvalents et génératifs les plus puissants (ceux formés en utilisant une puissance de calcul totale de plus de 10 ^ 25 FLOP) sont soumis aux règles. Le seuil peut être ajusté au fil du temps, mais on pense que GPT-4 d’OpenAI et Gemini de DeepMind entrent dans cette catégorie.

Les fournisseurs de tels modèles devront évaluer et atténuer les risques, signaler les incidents graves, fournir des détails sur la consommation énergétique de leurs systèmes, s’assurer qu’ils répondent aux normes de cybersécurité et effectuer des tests et des évaluations de modèles de pointe.

Comme pour d’autres réglementations européennes ciblant la technologie, les sanctions en cas de violation des dispositions de la loi sur l’IA peuvent être sévères. Les entreprises qui enfreignent les règles seront passibles d’amendes pouvant aller jusqu’à 35 millions d’euros (51,6 millions de dollars) ou jusqu’à sept pour cent de leurs bénéfices annuels globaux, le montant le plus élevé étant retenu.

La loi sur l’IA s’applique à tout modèle opérant dans l’UE, les fournisseurs d’IA basés aux États-Unis devront donc la respecter, du moins en Europe. Sam Altman, PDG du créateur d’OpenAI, OpenAI, a suggéré en mai dernier que son entreprise pourrait se retirer d’Europe si la loi sur l’IA devenait loi, mais l’entreprise n’avait pas l’intention de le faire.

Pour faire appliquer la loi, chaque pays membre créera son propre organisme de surveillance de l’IA et la Commission européenne mettra en place un bureau de l’IA. Cela permettra de développer des méthodes pour évaluer les modèles et surveiller les risques dans les modèles à usage général. Les fournisseurs de modèles à usage général considérés comme porteurs de risques systémiques seront invités à collaborer avec l’Office pour élaborer des codes de conduite.

Cet article contient des liens d’affiliation ; si vous cliquez sur un tel lien et effectuez un achat, nous pouvons gagner une commission.

Source-145