L’UE a conclu un accord réglementaire historique sur le développement de l’IA

Après un débat marathon de 72 heures, les législateurs de l’Union européenne sont parvenus vendredi à un accord historique sur son vaste projet de loi sur le développement de la sécurité de la loi sur l’IA, le plus vaste et le plus ambitieux de ce type à ce jour, rapporte Le Washington Post. Les détails de l’accord lui-même n’étaient pas immédiatement disponibles.

« Cette législation représentera une norme, un modèle pour de nombreuses autres juridictions », a déclaré Dragoș Tudorache, un législateur roumain co-dirigeant les négociations sur la loi sur l’IA. Le Washington Post, « ce qui signifie que nous devons faire preuve d’un devoir de diligence supplémentaire lorsque nous le rédigeons, car il aura une influence sur beaucoup d’autres. »

Les réglementations proposées dicteraient la manière dont les futurs modèles d’apprentissage automatique pourraient être développés et distribués au sein du bloc commercial, ce qui aurait un impact sur leur utilisation dans des applications allant de l’éducation à l’emploi en passant par les soins de santé. Le développement de l’IA serait divisé en quatre catégories en fonction du risque sociétal que chacune pose potentiellement : minime, limité, élevé et interdit.

Les utilisations interdites incluent tout ce qui contourne la volonté de l’utilisateur, cible des groupes sociaux protégés ou fournit un suivi biométrique en temps réel (comme la reconnaissance faciale). Les utilisations à haut risque incluent tout ce qui est « destiné à être utilisé comme composant de sécurité d’un produit » ou qui doit être utilisé dans des applications définies telles que les infrastructures critiques, l’éducation, les questions juridiques/judiciaires et le recrutement d’employés. Les chatbots comme ChatGPT, Bard et Bing le feraient. relèvent des paramètres de « risque limité ».

« La Commission européenne a une fois de plus fait preuve d’audace pour s’attaquer aux technologies émergentes, tout comme elle l’avait fait avec la confidentialité des données via le RGPD », a déclaré le Dr Brandie Nonnecke, directrice du CITRIS Policy Lab à l’UC Berkeley, à Engadget en 2021. « Le règlement proposé est très intéressant dans le sens où il s’attaque au problème à partir d’une approche fondée sur les risques », à l’instar de ce qui a été suggéré dans le cadre réglementaire proposé par le Canada sur l’IA.

Les négociations en cours sur les règles proposées ont été perturbées ces dernières semaines par la France, l’Allemagne et l’Italie. Ils faisaient obstacle aux discussions sur les règles régissant la manière dont les pays membres de l’UE pourraient développer des modèles fondamentaux, des IA généralisées à partir desquelles des applications plus spécialisées peuvent être affinées. Le GPT-4 d’OpenAI est l’un de ces modèles fondamentaux, car ChatGPT, les GPT et d’autres applications tierces sont tous formés à partir de ses fonctionnalités de base. Le trio de pays s’inquiète du fait que les réglementations européennes strictes sur les modèles d’IA générative pourraient entraver les efforts des pays membres pour les développer de manière compétitive.

La CE avait déjà relevé les défis croissants liés à la gestion des technologies émergentes d’IA par le biais de divers efforts, en publiant à la fois la première stratégie européenne sur l’IA et le plan coordonné sur l’IA en 2018, suivis des lignes directrices pour une IA digne de confiance en 2019. L’année suivante, la La Commission a publié un livre blanc sur l’IA et un rapport sur les implications en matière de sécurité et de responsabilité de l’intelligence artificielle, de l’Internet des objets et de la robotique.

« L’intelligence artificielle ne devrait pas être une fin en soi, mais un outil au service des personnes dans le but ultime d’accroître leur bien-être », a écrit la Commission européenne dans son projet de règlement sur l’IA. « Les règles relatives à l’intelligence artificielle disponibles sur le marché de l’Union ou affectant d’une autre manière les citoyens de l’Union devraient donc placer les personnes au centre (être centrées sur l’humain), afin qu’elles puissent être sûres que la technologie est utilisée d’une manière sûre et conforme à la loi. , y compris le respect des droits fondamentaux. »

« Dans le même temps, ces règles relatives à l’intelligence artificielle devraient être équilibrées, proportionnées et ne pas contraindre ou entraver inutilement le développement technologique », poursuit le texte. « Cela revêt une importance particulière car, même si l’intelligence artificielle est déjà présente dans de nombreux aspects de la vie quotidienne des gens, il n’est pas possible d’anticiper toutes les utilisations ou applications possibles qui pourraient en découler à l’avenir. »

Plus récemment, la CE a commencé à collaborer avec des membres de l’industrie sur une base volontaire pour élaborer des règles internes qui permettraient aux entreprises et aux régulateurs de fonctionner selon les mêmes règles de base convenues. « [Google CEO Sundar Pichai] et j’ai convenu que nous ne pouvons pas nous permettre d’attendre que la réglementation sur l’IA devienne réellement applicable, et de travailler avec tous les développeurs d’IA pour développer déjà un pacte sur l’IA sur une base volontaire avant la date limite légale », a déclaré Thierry Breton, chef de l’industrie de la Commission européenne (CE). » a déclaré dans un communiqué de mai. La CE a également entamé des discussions similaires avec des sociétés basées aux États-Unis.

Développement…

Source-145