vendredi, décembre 20, 2024

La réglementation de l’IA au centre de l’attention mondiale alors que l’UE s’approche d’un accord sur la réglementation

L’essor du développement de l’IA générative a incité les gouvernements du monde entier à se précipiter vers la réglementation de cette technologie émergente. Cette tendance correspond aux efforts de l’Union européenne visant à mettre en œuvre le premier ensemble de règles globales au monde en matière d’intelligence artificielle.

La loi sur l’intelligence artificielle (IA) du bloc des 27 nations est reconnue comme un ensemble de réglementations innovantes. Après beaucoup de retard, des rapports indiquer que les négociateurs ont convenu le 7 décembre d’un ensemble de contrôles pour les outils d’intelligence artificielle générative tels que ChatGPT d’OpenAI Inc. et Bard de Google.

Les inquiétudes concernant une éventuelle utilisation abusive de la technologie ont également poussé les États-Unis, le Royaume-Uni, la Chine et des coalitions internationales telles que le Groupe des Sept à accélérer leurs travaux visant à réglementer cette technologie en rapide évolution.

En juin, le gouvernement australien a annoncé une consultation de huit semaines sur la question de savoir si les outils d’intelligence artificielle « à haut risque » devraient être interdits. La consultation a été prolongée jusqu’au 26 juillet. Le gouvernement sollicite des commentaires sur des stratégies visant à soutenir « l’utilisation sûre et responsable de l’IA », en explorant des options telles que des mesures volontaires telles que des cadres éthiques, la nécessité de réglementations spécifiques ou une combinaison des deux approches.

Entre-temps, dans le cadre de mesures temporaires à compter du 15 août, la Chine a introduit des réglementations pour superviser le secteur de l’IA générative, exigeant que les fournisseurs de services se soumettent à des évaluations de sécurité et obtiennent une autorisation avant d’introduire des produits d’IA sur le marché de masse. Après avoir obtenu l’approbation du gouvernement, quatre entreprises technologiques chinoises, dont Baidu Inc et SenseTime Group, ont dévoilé au public leurs chatbots IA le 31 août.

En rapport: Comment l’IA générative permet à un architecte de réinventer les villes anciennes

Selon un rapportl’organisme français de surveillance de la vie privée, la CNIL, a déclaré en avril qu’elle enquêtait sur plusieurs plaintes concernant ChatGPT après que le chatbot ait été temporairement interdit en Italie pour violation présumée des règles de confidentialité, surplombant avertissements des groupes de défense des droits civiques.

L’Autorité italienne de protection des données, un régulateur local de la vie privée, a annoncé le lancement d’une enquête « d’établissement des faits » le 22 novembre, dans le cadre de laquelle elle examinera la pratique de la collecte de données pour entraîner des algorithmes d’IA. L’enquête vise à confirmer la mise en œuvre de mesures de sécurité appropriées sur les sites Web publics et privés pour empêcher le « web scraping » des données personnelles utilisées par des tiers pour la formation à l’IA.

Les États-Unis, le Royaume-Uni, l’Australie et 15 autres pays ont récemment publié des lignes directrices mondiales visant à protéger les modèles d’intelligence artificielle (IA) contre toute falsification, exhortant les entreprises à rendre leurs modèles « sécurisés dès leur conception ».

Revue: Cas d’utilisation réels de l’IA dans la cryptographie : marchés de l’IA basés sur la cryptographie et analyse financière de l’IA