L’UE envisage des réglementations plus restrictives pour les grands modèles d’IA : rapport

Des représentants de l’Union européenne seraient en train de négocier un projet de réglementation supplémentaire sur les plus grands systèmes d’intelligence artificielle (IA), selon à un rapport de Bloomberg.

La Commission européenne, le Parlement européen et les différents États membres de l’UE seraient en discussion concernant les effets potentiels des grands modèles de langage (LLM), notamment Llama 2 de Meta et ChatGPT-4 d’OpenAI, et d’éventuelles restrictions supplémentaires qui pourraient leur être imposées. une partie de la prochaine loi sur l’IA.

Bloomberg rapporte que des sources proches du dossier ont déclaré que l’objectif n’était pas de surcharger les nouvelles startups avec trop de réglementations tout en gardant sous contrôle les modèles plus importants.

Selon les sources, l’accord conclu par les négociateurs sur ce sujet en est encore au stade préliminaire.

La loi sur l’IA et les nouvelles réglementations proposées pour les LLM constitueraient une approche similaire à la loi sur les services numériques (DSA) de l’UE.

Les législateurs européens ont récemment mis en œuvre le DSA, ce qui fait que les plateformes et les sites Web disposent de normes pour protéger les données des utilisateurs et détecter les activités illégales. Toutefois, les plus grandes plateformes du Web sont soumises à des contrôles plus stricts.

Les entreprises de cette catégorie, comme Alphabet et Meta, avaient jusqu’au 28 août pour mettre à jour leurs pratiques de service afin de se conformer aux nouvelles normes de l’UE.

En rapport: L’UNESCO et les Pays-Bas conçoivent un projet de supervision de l’IA pour l’UE

La loi européenne sur l’IA est censée être l’un des premiers ensembles de règles obligatoires pour l’IA mises en place par un gouvernement occidental. La Chine a déjà promulgué son propre ensemble de réglementations sur l’IA, entrées en vigueur en août 2023.

En vertu de la réglementation européenne sur l’IA, les entreprises développant et déployant des systèmes d’IA devraient effectuer des évaluations des risques, étiqueter le contenu généré par l’IA et il leur serait totalement interdit d’utiliser la surveillance biométrique, entre autres mesures.

Cependant, la législation n’a pas encore été adoptée et les États membres ont toujours la possibilité de ne pas être d’accord avec l’une des propositions présentées par le Parlement.

En Chine, depuis la mise en œuvre de ses lois sur l’IA, il a été signalé que plus de 70 nouveaux modèles d’IA ont déjà été lancés.

Revue: La vérité derrière la révolution Bitcoin à Cuba : un rapport sur le terrain