L’IA se développe assez rapidement et les dangers qu’elle peut poser sont suffisamment clairs pour que la direction d’OpenAI estime que le monde a besoin d’un organisme de réglementation international semblable à celui régissant l’énergie nucléaire – et rapide. Mais pas trop vite.
Dans un article sur le blog de l’entreprise, le fondateur d’OpenAI Sam Altman, le président Greg Brockman et le scientifique en chef Ilya Sutskever expliquent que le rythme de l’innovation dans l’intelligence artificielle est si rapide que nous ne pouvons pas nous attendre à ce que les autorités existantes maîtrisent suffisamment la technologie.
Bien qu’il y ait une certaine qualité à se féliciter ici, il est clair pour tout observateur impartial que la technologie, le plus visiblement dans l’agent conversationnel ChatGPT d’OpenAI, extrêmement populaire, représente une menace unique ainsi qu’un atout inestimable.
Le billet, généralement plutôt léger sur les détails et les engagements, admet néanmoins que l’IA ne va pas se gérer elle-même :
Nous avons besoin d’un certain degré de coordination entre les principaux efforts de développement pour garantir que le développement de la superintelligence se produit d’une manière qui nous permet à la fois de maintenir la sécurité et d’aider à une intégration harmonieuse de ces systèmes avec la société.
Nous finirons probablement par avoir besoin de quelque chose comme un [International Atomic Energy Agency] pour les efforts de superintelligence ; tout effort dépassant un certain seuil de capacité (ou de ressources comme le calcul) devra être soumis à une autorité internationale qui peut inspecter les systèmes, exiger des audits, tester la conformité aux normes de sécurité, imposer des restrictions sur les degrés de déploiement et les niveaux de sécurité, etc.
L’AIEA est l’organe officiel de l’ONU pour la collaboration internationale sur les questions d’énergie nucléaire, même si, bien sûr, comme d’autres organisations de ce type, elle peut vouloir du punch. Un organe directeur de l’IA construit sur ce modèle peut ne pas être en mesure d’intervenir et d’actionner un mauvais acteur, mais il peut établir et suivre les normes et accords internationaux, ce qui est au moins un point de départ.
Le message d’OpenAI note que le suivi de la puissance de calcul et de l’utilisation de l’énergie dédiée à la recherche sur l’IA est l’une des rares mesures objectives qui peuvent et devraient probablement être signalées et suivies. S’il peut être difficile de dire que l’IA doit ou ne doit pas être utilisée pour ceci ou cela, il peut être utile de dire que les ressources qui lui sont dédiées doivent, comme d’autres industries, être surveillées et auditées. (Les petites entreprises pourraient être exemptées afin de ne pas étrangler les pousses vertes de l’innovation, a suggéré l’entreprise.)
Timnit Gebru, chercheur et critique en intelligence artificielle de premier plan, a déclaré aujourd’hui quelque chose de similaire dans une interview avec The Guardian : « À moins qu’il n’y ait une pression extérieure pour faire quelque chose de différent, les entreprises ne vont pas simplement s’autoréguler. Nous avons besoin de réglementation et nous avons besoin de quelque chose de mieux qu’un simple objectif de profit.
OpenAI a visiblement adopté ce dernier, à la consternation de beaucoup qui espéraient qu’il serait à la hauteur de son nom, mais au moins en tant que leader du marché, il appelle également à une action réelle du côté de la gouvernance – au-delà des audiences comme la dernière, où les sénateurs s’alignent prononcer des discours de réélection qui se terminent par des points d’interrogation.
Alors que la proposition revient à « peut-être devrions-nous faire quelque chose », c’est au moins un sujet de conversation dans l’industrie et indique le soutien de la plus grande marque et fournisseur d’IA au monde pour faire quelque chose. Une surveillance publique est désespérément nécessaire, mais « nous ne savons pas encore comment concevoir un tel mécanisme ».
Et bien que les dirigeants de l’entreprise se disent favorables au freinage, il n’est pas prévu de le faire pour l’instant, à la fois parce qu’ils ne veulent pas abandonner l’énorme potentiel « d’améliorer nos sociétés » (sans parler des résultats) et car il y a un risque que les mauvais acteurs aient carrément le pied sur l’accélérateur.