À la une : pourquoi l’IA a besoin d’être réglementée et comment nous pouvons le faire

L’industrie en plein essor de l’IA a dépassé la partie « avancer rapidement » de son développement, jusqu’à la partie où nous « cassons les choses » – comme la société ! Depuis la sortie de ChatGPT en novembre dernier, les systèmes d’IA générative ont pris d’assaut le monde numérique, trouvant leur utilisation dans tous les domaines, du codage machine et des applications industrielles à la conception de jeux et au divertissement virtuel. Il a également été rapidement adopté à des fins illicites, telles que la mise à l’échelle des opérations de courrier indésirable et la création de deepfakes.

C’est un génie technologique que nous ne remettrons jamais dans sa bouteille, nous ferions donc mieux de travailler à sa réglementation, affirme l’auteur, entrepreneur, investisseur et conseiller politique basé à la Silicon Valley, Tom Kemp, dans son nouveau livre : Contenir la Big Tech : comment protéger nos droits civiques, notre économie et notre démocratie. Dans l’extrait ci-dessous, Kemp explique quelle forme cette réglementation pourrait prendre et ce que son application signifierait pour les consommateurs.

Presse d’entreprise rapide

Extrait Contenir les Big Tech : Comment protéger nos droits civiques, notre économie et notre démocratie (IT Rev, 22 août 2023)par Tom Kemp.


Feuille de route pour contenir l’IA

Pandore dans le mythe grec apportait de puissants dons, mais déclenchait également de puissants fléaux et maux. De même, avec l’IA, nous devons exploiter ses avantages tout en gardant les dommages potentiels qu’elle peut causer aux humains dans la proverbiale boîte de Pandore.

Lorsque le Dr Timnit Gebru, fondateur du Distributed Artificial Intelligence Research Institute (DAIR), a été interrogé par le New York Times Concernant la manière de lutter contre les préjugés de l’IA, elle a répondu en partie par ceci : « Nous avons besoin d’avoir des principes et des normes, des organes directeurs et des personnes votant sur les choses et les algorithmes qui sont vérifiés, quelque chose de similaire à la FDA. [Food and Drug Administration]. Donc, pour moi, ce n’est pas aussi simple que de créer un ensemble de données plus diversifié, et les choses sont corrigées.

Elle a raison. Nous avons avant tout besoin de réglementation. L’IA est un nouveau jeu et elle a besoin de règles et d’arbitres. Elle a suggéré que nous ayons besoin d’un équivalent FDA pour l’IA. En effet, l’AAA et l’ADPPA appellent la FTC à jouer ce rôle, mais au lieu que les soumissions et l’approbation des médicaments soient gérées par la FDA, les grandes entreprises technologiques et d’autres devraient envoyer leurs évaluations d’impact de l’IA à la FTC pour les systèmes d’IA. Ces évaluations concerneraient les systèmes d’IA dans des domaines à fort impact tels que le logement, l’emploi et le crédit, nous aidant ainsi à mieux faire face à la ligne rouge numérique. Ainsi, ces projets de loi favorisent la responsabilité et la transparence nécessaires pour les consommateurs.

À l’automne 2022, le Bureau de la politique scientifique et technologique (OSTP) de l’administration Biden a même proposé un « projet de déclaration des droits de l’IA ». Les protections incluent le droit de « savoir qu’un système automatisé est utilisé et de comprendre comment et pourquoi il contribue aux résultats qui vous concernent ». C’est une excellente idée et pourrait être intégrée aux responsabilités réglementaires que la FTC aurait si l’AAA ou l’ADPA étaient adoptées. Le fait est que l’IA ne devrait pas être une boîte noire complète pour les consommateurs, et que ces derniers devraient avoir le droit de connaître et de s’opposer, tout comme ils devraient avoir le droit de collecter et de traiter leurs données personnelles. En outre, les consommateurs devraient avoir le droit d’agir en privé si les systèmes basés sur l’IA leur nuisent. Et les sites Web contenant une quantité importante de textes et d’images générés par l’IA devraient avoir l’équivalent d’une étiquette nutritionnelle pour nous permettre de savoir ce qu’est le contenu généré par l’IA par rapport au contenu généré par l’homme.

Nous avons également besoin de certifications en IA. Par exemple, le secteur financier dispose d’experts-comptables accrédités (CPA) et d’audits et d’états financiers certifiés, nous devrions donc avoir l’équivalent pour l’IA. Et nous avons besoin de codes de conduite pour l’utilisation de l’IA ainsi que de normes industrielles. Par exemple, l’Organisation internationale de normalisation (ISO) publie des normes de gestion de la qualité auxquelles les organisations peuvent adhérer en matière de cybersécurité, de sécurité alimentaire, etc. Heureusement, un groupe de travail avec l’ISO a commencé à développer une nouvelle norme pour la gestion des risques liés à l’IA. Autre évolution positive, le National Institute of Standards and Technology (NIST) a publié son cadre initial pour la gestion des risques liés à l’IA en janvier 2023.

Nous devons rappeler aux entreprises de disposer d’équipes de conception plus diversifiées et plus inclusives pour développer l’IA. Comme l’a déclaré Olga Russakovsky, professeur adjoint au Département d’informatique de l’Université de Princeton : « Il existe de nombreuses opportunités pour diversifier ce pool. [of people building AI systems]et à mesure que la diversité augmente, les systèmes d’IA eux-mêmes deviendront moins biaisés.

Alors que les régulateurs et les législateurs se penchent sur les questions antitrust concernant les grandes entreprises technologiques, l’IA ne doit pas être négligée. Pour paraphraser Wayne Gretzky, les régulateurs doivent patiner là où va la rondelle, et non là où elle se trouve. L’IA est la voie à suivre en matière de technologie. Par conséquent, les acquisitions d’entreprises d’IA par les grandes entreprises technologiques devraient être examinées de plus près. En outre, le gouvernement devrait envisager de rendre obligatoire la propriété intellectuelle ouverte pour l’IA. Par exemple, cela pourrait s’inspirer du décret de consentement fédéral de 1956 avec Bell qui obligeait Bell à concéder sous licence tous ses brevets sans redevance à d’autres entreprises. Cela a conduit à des innovations incroyables telles que le transistor, la cellule solaire et le laser. Il n’est pas sain pour notre économie de confier l’avenir de la technologie entre les mains de quelques entreprises.

Enfin, notre société et notre économie doivent mieux se préparer à l’impact de l’IA sur le déplacement des travailleurs par l’automatisation. Oui, nous devons préparer nos citoyens en leur offrant une meilleure éducation et une meilleure formation pour de nouveaux emplois dans un monde de l’IA. Mais nous devons être intelligents à ce sujet, car nous ne pouvons pas dire qu’il faut recycler tout le monde pour devenir développeur de logiciels, car seuls certains ont cette compétence ou cet intérêt. Notez également que l’IA est de plus en plus conçue pour automatiser le développement de programmes logiciels. Il est donc essentiel de savoir quelles compétences logicielles doivent être enseignées dans un monde d’IA. Comme l’a souligné l’économiste Joseph E. Stiglitz, nous avons eu du mal à gérer des changements technologiques et mondialisés à petite échelle qui ont conduit à une polarisation et à un affaiblissement de notre démocratie, et les changements de l’IA sont plus profonds. Nous devons donc nous y préparer et veiller à ce que l’IA soit un bénéfice net pour la société.

Étant donné que les grandes technologies mènent la charge en matière d’IA, il faut commencer par elles pour garantir que ses effets soient positifs. L’IA est incroyablement puissante, et les grandes technologies sont « à fond » avec l’IA, mais l’IA comporte de nombreux risques si des biais sont introduits ou si elle est conçue pour être exploitée. Et comme je l’ai documenté, les Big Tech ont eu des problèmes avec leur utilisation de l’IA. Cela signifie que non seulement la profondeur et l’étendue de la collecte de nos données sensibles constituent une menace, mais que la manière dont les Big Tech utilisent l’IA pour traiter ces données et prendre des décisions automatisées est également menaçante.

Ainsi, de la même manière que nous devons contenir la surveillance numérique, nous devons également garantir que les grandes technologies n’ouvrent pas la boîte de Pandore avec l’IA.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.

Source-145