Alors que les législateurs du monde entier tentent de comprendre comment réglementer les technologies d’IA qui progressent rapidement, l’économiste en chef de Microsoft, Michael Schwarz, a déclaré aujourd’hui aux participants au Sommet sur la croissance du Forum économique mondial que « nous ne devrions pas réglementer l’IA tant que nous ne verrons pas un préjudice significatif qui se produit réellement, pas imaginaire ». scénarios. »
Les commentaires sont arrivés environ 45 minutes après un panel intitulé « Growth Hotspots: Harnessing the Generative AI Revolution ». Réagissant, un autre conférencier vedette, le présentateur de CNN, Zain Asher, a arrêté Schwarz pour demander : « Attendez, nous devrions attendre de voir le mal avant de le réglementer ? »
« Je dirais oui », a déclaré Schwarz, comparant la réglementation de l’IA avant qu' »un peu de mal » ne soit causé à l’adoption de lois sur le permis de conduire avant que des personnes ne meurent dans des accidents de voiture.
« La première fois que nous avons commencé à exiger des permis de conduire, c’était après la mort de plusieurs dizaines de personnes dans des accidents de voiture, n’est-ce pas ? » dit Schwarz. « Et c’était la bonne chose », car « si vous aviez exigé un permis de conduire lorsqu’il y avait les deux premières voitures sur la route », alors « nous aurions complètement foiré ce règlement ».
Apparemment, de l’avis de Schwarz, le coût de la réglementation – peut-être la perte d’innovation – ne devrait pas l’emporter sur les avantages.
« Il doit y avoir au moins un peu de mal, pour que nous puissions voir quel est le vrai problème », a expliqué Schwarz. « Y a-t-il un vrai problème ? Quelqu’un a-t-il subi au moins mille dollars de dommages à cause de cela ? Devrions-nous intervenir pour réglementer quelque chose sur une planète de 8 milliards d’habitants alors qu’il n’y a même pas mille dollars de dommages ? Bien sûr pas. »
Les législateurs se précipitent pour rédiger des réglementations sur l’IA qui reconnaissent les dommages mais ne menacent pas les progrès de l’IA. L’année dernière, la Federal Trade Commission (FTC) des États-Unis a averti le Congrès que les législateurs devaient faire preuve d’une « grande prudence » lors de l’élaboration de solutions politiques en matière d’IA. La FTC considère les préjudices comme des cas où « les outils d’IA peuvent être inexacts, biaisés et discriminatoires de par leur conception et inciter à s’appuyer sur des formes de surveillance commerciale de plus en plus invasives ». Plus récemment, la Maison Blanche a publié un plan pour une déclaration des droits de l’IA, décrivant certains résultats de l’utilisation de l’IA comme « profondément nocifs », mais « pas inévitables ».
Pour s’assurer que les dommages évitables étaient évités, l’administration Biden a fourni des conseils pour empêcher les systèmes automatisés d’avoir un impact significatif sur « les droits, les opportunités ou l’accès du public aux besoins critiques ». Pas plus tard qu’aujourd’hui, les législateurs européens ont convenu de rédiger des règles plus strictes sur l’IA dans ce qui pourrait devenir la première législation complète sur l’IA au monde, a rapporté Reuters. Ces règles classeraient les outils d’IA par niveaux de risque, afin que les pays puissent protéger les droits civils sans nuire à l’innovation et aux progrès importants de l’IA.
Schwarz a semblé ignorer l’urgence de la précipitation des législateurs à prévenir les atteintes aux droits civils, suggérant plutôt que la prévention des atteintes monétaires devrait être l’objectif des réglementations et qu’il n’y a apparemment pas encore besoin de cela.
« Vous ne mettez pas de réglementation en place pour éviter des dommages d’une valeur de mille dollars, alors que la même réglementation empêche des bénéfices d’une valeur d’un million de dollars pour les personnes du monde entier », a déclaré Schwarz.
Bien sûr, il y a déjà eu des poursuites en dommages-intérêts de la part des fabricants d’outils d’IA, comme un recours collectif en matière de droit d’auteur contre les générateurs d’images Stability AI et Midjourney et d’autres poursuites provoquant un tremblement de terre juridique dans l’IA. La fuite de données ChatGPT d’OpenAI a amené l’Italie à interdire temporairement le générateur de parole, s’inquiétant de la confidentialité des données des utilisateurs italiens, et un maire australien a menacé de poursuivre en diffamation après que ChatGPT a faussement affirmé qu’il était allé en prison.
Schwarz ne semble pas totalement contre les réglementations sur l’IA, mais dit qu’en tant qu’économiste, il aime l’efficacité et voudrait que les lois équilibrent les coûts et les gains de l’IA. Environ six minutes après le début du panel, Schwarz a averti que « l’IA sera utilisée par de mauvais acteurs » et « causera de réels dommages », affirmant que les entreprises devraient être « très prudentes et très vigilantes » lorsqu’il s’agit de développer des technologies d’IA. Il a également déclaré que « si nous pouvons imposer une réglementation qui fait plus de bien que de mal, bien sûr, nous devons l’imposer ».
Microsoft est un investisseur dans OpenAI, et pendant le panel, on a demandé à Schwarz comment les visions de Microsoft et d’OpenAI se chevauchent.
« Je pense que les deux entreprises sont vraiment déterminées à s’assurer que l’IA est sûre, qu’elle est utilisée pour le bien et non pour le mal », a déclaré Schwarz. « Nous devons nous inquiéter beaucoup de la sécurité de cette technologie, comme pour toute autre technologie. »
Microsoft et OpenAI n’ont pas immédiatement répondu à la demande de commentaires d’Ars. [Update: A Microsoft spokesperson told Ars that as AI technology advances, increased regulatory scrutiny is appropriate, noting that until laws are passed, Microsoft is working to address the most high-risk and sensitive AI uses. « We are optimistic about the future of AI, and we think AI advances will solve many more challenges than they present, but we have also been consistent in our belief that when you create technologies that can change the world, you must also ensure that the technology is used responsibly, » Microsoft’s spokesperson said. « Microsoft has long said that we need laws regulating AI and as we move into this new era, all of us building, deploying and using AI have a collective obligation to do so responsibly. »]