« Nous, le peuple » pouvons-nous contrôler l’IA ?

Le technologue et chercheur Aviv Ovadya n’est pas sûr que l’IA générative puisse être gouvernée, mais il pense que le moyen le plus plausible de la contrôler pourrait simplement confier à ceux qui seront touchés par l’IA le soin de décider collectivement des moyens de la freiner.

Cela signifie que vous; ça veut dire moi. C’est le pouvoir de grands réseaux d’individus de résoudre les problèmes plus rapidement et plus équitablement qu’un petit groupe d’individus ne le ferait seul (y compris, par exemple, à Washington). Il ne s’agit pas de s’appuyer naïvement sur la sagesse des foules – ce qui s’est avéré problématique – mais de recourir à la démocratie dite délibérative, une approche qui consiste à sélectionner les personnes par tri pour être représentatives (de sorte que tous les membres de la population soient impactés ont une chance égale d’être choisis), et leur offrant un environnement qui leur permet de délibérer efficacement et de prendre des décisions judicieuses. Cela signifie une compensation pour leur temps, l’accès à des experts et des parties prenantes et une facilitation neutre.

Cela se produit déjà dans de nombreux domaines, notamment la recherche scientifique, les affaires, la politique et les mouvements sociaux. À Taïwan, par exemple, des pirates informatiques à l’esprit civique ont formé en 2015 une plate-forme – « Taïwan virtuel » – qui « rassemble des représentants des secteurs public, privé et social pour débattre de solutions politiques aux problèmes principalement liés à l’économie numérique », comme expliqué en 2019 par la ministre taïwanaise du numérique, Audrey Tang dans le New York Times. Depuis lors, vTaiwan, comme on l’appelle, a abordé des dizaines de problèmes en « s’appuyant sur un mélange de débats en ligne et de discussions en face à face avec les parties prenantes », écrivait Tang à l’époque.

Une initiative similaire est l’examen de l’initiative citoyenne de l’Oregon, qui a été promulguée en 2011 et informe la population électorale de l’État des mesures de vote par le biais d’un processus délibératif axé sur les citoyens. Environ 20 à 25 citoyens représentatifs de l’ensemble de l’électorat de l’Oregon sont réunis pour débattre des mérites d’une initiative ; ils rédigent ensuite collectivement une déclaration sur cette initiative qui est envoyée aux autres électeurs de l’État afin qu’ils puissent prendre des décisions mieux informées les jours d’élection.

Ces processus délibératifs ont également permis de résoudre avec succès des problèmes en Australie (politique de l’eau), au Canada (réforme électorale), au Chili (retraites et soins de santé) et en Argentine (logement, propriété foncière), entre autres.

« Il y a des obstacles à ce que cela fonctionne » en ce qui concerne l’IA, reconnaît Ovadya, qui est affilié au Berkman Klein Center de Harvard et dont les travaux se concentrent de plus en plus sur les impacts de l’IA sur la société et la démocratie. « Mais empiriquement, cela a été fait sur tous les continents du monde, à toutes les échelles » et « plus vite nous pouvons mettre certaines de ces choses en place, mieux c’est », note-t-il.

Laisser de larges sections transversales de personnes décider de lignes directrices acceptables pour l’IA peut sembler bizarre pour certains, voire impossible.

Pourtant, Ovadya n’est pas le seul à penser que la solution est largement ancrée dans la société. Mira Murati, directrice de la technologie de l’éminente startup d’IA OpenAI, a déclaré au magazine Time dans une récente interview : « [W]Nous sommes un petit groupe de personnes et nous avons besoin d’une tonne d’informations supplémentaires dans ce système et de beaucoup plus d’informations qui vont au-delà des technologies – certainement les régulateurs et les gouvernements et tout le monde.

Murati ne craint pas que l’implication du gouvernement ralentisse l’innovation, ou qu’il soit trop tôt pour que les décideurs politiques et les régulateurs s’impliquent, a-t-elle déclaré au média lorsqu’elle a été interrogée sur ces choses. Au contraire, comme OpenAI le dit depuis des années, le moment d’agir est aujourd’hui, pas demain. « Il est très important que tout le monde commence à s’impliquer compte tenu de l’impact que ces technologies vont avoir », a-t-elle déclaré.

Pour l’instant, OpenAI adopte une approche autonome, instituant et révisant des directives pour une utilisation sûre de sa technologie et proposant de nouvelles itérations au compte-gouttes.

Le Entre-temps, l’Union européenne a élaboré un cadre réglementaire — Loi sur l’IA — qui fait son chemin au Parlement européen et vise à devenir une norme mondiale. La loi classerait les applications d’IA dans trois catégories de risques : les applications et les systèmes qui créent un « risque inacceptable » ; les « applications à haut risque » qui seraient soumises à des exigences légales spécifiques ; et les applications non explicitement interdites ou répertoriées comme à haut risque qui seraient en grande partie non réglementées.

Le département américain du Commerce a également rédigé un cadre volontaire destiné à guider les entreprises, mais étonnamment, il ne reste aucune réglementation – zilcho – malgré le fait qu’elle est cruellement nécessaire. (En plus d’OpenAI, géants de la technologie comme Microsoft et Google – brûlés par versions antérieures de leur propre IA qui se sont retournés contre eux – courent à nouveau très publiquement pour déployer des produits et des applications infusés d’IA. Comme OpenAI, ils essaient également de trouver leurs propres ajustements et garde-corps.)

Une sorte de consortium World Wide Web, une organisation internationale créée en 1994 pour établir des normes pour le World Wide Web, aurait apparemment du sens. En effet, Murati a déclaré au Time que « différentes voix, comme des philosophes, des spécialistes des sciences sociales, des artistes et des personnes issues des sciences humaines » devraient être réunies pour répondre aux nombreuses « questions éthiques et philosophiques que nous devons considérer ».

De nouveaux outils qui aident les gens à voter sur des questions pourraient également être utiles. Le PDG d’OpenAI, Sam Altman, est également co-fondateur, par exemple, d’une société de numérisation de la rétine à Berlin appelée WorldCoin qui souhaite faciliter l’authentification de l’identité de quelqu’un. Des questions ont été soulevées sur les implications de l’approche biométrique de WorldCoin en matière de confidentialité et de sécurité, mais ses applications potentielles incluent la distribution d’un revenu de base universel mondial, ainsi que l’autonomisation de nouvelles formes de démocratie numérique.

Quoi qu’il en soit, Ovadya essaie activement de persuader tous les principaux acteurs de l’IA que l’intelligence collective est le moyen de créer rapidement des frontières autour de l’IA tout en leur donnant la crédibilité nécessaire. Prenez OpenAI, dit Ovadya. « Cela suscite des critiques en ce moment de la part de tout le monde », y compris à propos de son parti pris libéral perçu. « Ce serait utile [for the company] d’avoir une réponse vraiment concrète » sur la façon dont il établit ses politiques futures.

Ovadya pointe de la même manière Stability.AI, la société d’IA open source dont le PDG, Emad Mostaque, a suggéré à plusieurs reprises que Stability est plus démocratique qu’OpenAI car il est disponible partout, alors qu’OpenAI n’est actuellement disponible que dans les pays où il peut fournir  » accès sécurisé. »

Selon Ovadya, « Emad de Stability dit qu’il « démocratise l’IA ». Bien, ne serait-il pas agréable d’utiliser des processus démocratiques pour déterminer ce que les gens veulent vraiment ? »

Source-146