Adolescent, je me suis plongé dans la science-fiction. Alors que les visions de nombreux films et romans ne se sont pas concrétisées, je suis toujours étonné par la capacité de l’écrivain légendaire Isaac Asimov à imaginer un avenir d’intelligence artificielle et de robotique. Maintenant, au milieu de tout le battage médiatique autour de l’IA générative et d’autres outils d’IA, il est temps pour nous de suivre l’exemple d’Asimov et d’écrire un nouvel ensemble de règles.
Bien sûr, les règles de l’IA pour le 21e siècle ne seront pas aussi simples que les trois règles de la robotique d’Asimov (vulgarisées dans « I, Robot »). Mais au milieu de l’anxiété suscitée par la montée en puissance des outils d’IA et d’une poussée malavisée en faveur d’un moratoire sur la recherche avancée en IA, l’industrie peut et devrait faire pression pour des règles pour un développement responsable de l’IA. Certes, les progrès technologiques du siècle dernier nous ont donné beaucoup d’expérience pour évaluer à la fois les avantages du progrès technologique et les pièges potentiels.
La technologie elle-même est neutre. C’est la façon dont nous l’utilisons – et les garde-fous que nous mettons en place autour – qui dictent son impact. En tant qu’êtres humains, exploiter la puissance du feu nous a permis de rester au chaud et de prolonger le temps de stockage des aliments. Mais le feu peut toujours être destructeur.
Pensez à la façon dont les récents incendies de forêt au Canada ont menacé des vies et des biens au Canada et ont endommagé la qualité de l’air aux États-Unis. L’énergie nucléaire sous la forme de bombes atomiques a tué des milliers de personnes au Japon pendant la Seconde Guerre mondiale, mais l’énergie nucléaire éclaire une grande partie de la France et alimente les porte-avions américains.
Nous sommes à un moment charnière pour l’avenir d’une technologie étonnante, complexe et conséquente. Nous ne pouvons pas nous permettre de laisser d’autres pays prendre les devants.
Dans le cas de l’IA, de nouveaux outils et plates-formes peuvent résoudre de grands problèmes mondiaux et créer des connaissances précieuses. Lors d’une récente réunion des directeurs de l’information de la région de Détroit, les participants ont expliqué comment l’IA générative accélère déjà la mise sur le marché et rend leurs entreprises plus compétitives.
L’IA générative nous aidera à « écouter » différentes espèces animales. L’IA améliorera notre santé en soutenant la découverte de médicaments et le diagnostic des maladies. Des outils similaires fournissent tout, des soins personnalisés aux personnes âgées à une meilleure sécurité pour nos maisons. De plus, l’IA améliorera notre productivité, avec une nouvelle étude de McKinsey montrant que l’IA générative pourrait stimuler l’économie mondiale de 4,4 billions de dollars par an.
Avec toutes ces possibilités, une technologie aussi étonnante peut-elle aussi être mauvaise ? Certaines des préoccupations concernant les plates-formes d’IA sont légitimes. Nous devrions nous préoccuper du risque de deep fakes, de manipulation politique et de fraude visant les populations vulnérables, mais nous pouvons également utiliser l’IA pour reconnaître, intercepter et bloquer les cyber-intrusions nuisibles. Les obstacles et les solutions peuvent être difficiles et complexes, et nous devons y travailler.
Certains peuvent aussi être simples; nous voyons déjà des écoles expérimenter des examens oraux pour tester les connaissances d’un élève. Aborder ces problèmes de front, plutôt que de se mettre la tête dans le sable avec une pause dans la recherche qui serait impossible à appliquer et mûre pour être exploitée par de mauvais acteurs, positionnera les États-Unis en tant que leader sur la scène mondiale.
Alors que l’approche américaine de l’IA a été mitigée, d’autres pays semblent enfermés dans une bousculade hyper-réglementaire. L’UE est sur le point d’adopter une loi radicale sur l’IA qui obligerait les entreprises à demander la permission d’innover. En pratique, cela signifierait que seuls le gouvernement ou les grandes entreprises disposant des finances et de la capacité de se permettre le labyrinthe de certification couvrant la confidentialité, la propriété intellectuelle et une foule d’exigences de protection sociale pourraient développer de nouveaux outils d’IA.
Une étude récente de l’Université de Stanford a également révélé que le projet de loi sur l’IA de l’UE interdirait tous les grands modèles de langage actuellement existants, y compris le GPT-4 d’OpenAI et le Bard de Google. Les législateurs canadiens proposent un projet de loi trop large sur l’IA qui pourrait également étouffer l’innovation. Plus préoccupant encore, la Chine poursuit rapidement la domination civile et militaire de l’IA grâce à un soutien gouvernemental massif. De plus, il a une vision différente des droits de l’homme et de la protection de la vie privée qui peut aider ses efforts en matière d’IA, mais qui est contraire à nos valeurs. Les États-Unis doivent agir pour protéger les citoyens et faire progresser l’innovation en IA, sinon nous serons laissés pour compte.
À quoi cela ressemblerait-il ? Pour commencer, les États-Unis ont besoin d’un projet de loi fédéral préventif sur la protection de la vie privée. Le patchwork actuel de règles état par état signifie que les données sont traitées différemment chaque fois qu’elles « franchissent » une frontière invisible, ce qui engendre de la confusion et des obstacles à la conformité pour les petites entreprises. Nous avons besoin d’une loi nationale sur la protection de la vie privée avec des directives et des normes claires sur la manière dont les entreprises collectent, utilisent et partagent les données. Cela contribuerait également à créer de la transparence pour les consommateurs et à garantir que les entreprises puissent favoriser la confiance à mesure que l’économie numérique se développe.
Nous avons également besoin d’un ensemble de principes concernant l’utilisation responsable de l’IA. Bien que je préfère moins de réglementation, la gestion des technologies émergentes comme l’IA nécessite des règles claires qui définissent comment cette technologie peut être développée et déployée. Avec de nouvelles innovations en matière d’IA dévoilées presque quotidiennement, les législateurs devraient se concentrer sur les garde-corps et les résultats, plutôt que d’essayer de freiner des technologies spécifiques.
Les règles devraient également tenir compte du niveau de risque, en se concentrant sur les systèmes d’IA qui pourraient nuire de manière significative aux droits fondamentaux des Américains ou à l’accès aux services essentiels. Alors que notre gouvernement détermine à quoi ressemble une « bonne politique », l’industrie aura un rôle vital à jouer. La Consumer Technology Association travaille en étroite collaboration avec l’industrie et les décideurs politiques pour développer des principes unifiés pour l’utilisation de l’IA.
Nous sommes à un moment charnière pour l’avenir d’une technologie étonnante, complexe et conséquente. Nous ne pouvons pas nous permettre de laisser d’autres pays prendre les devants.