Un chercheur qui a participé à la création de ChatGPT a averti que l’IA pourrait bien conduire à la perte de l’humanité – ou du moins, il y a environ 50 % de chances que ce scénario se produise.
Interne du milieu des affaires (s’ouvre dans un nouvel onglet) rapporte que Paul Christiano, qui dirigeait l’équipe d’alignement du modèle de langage chez OpenAI, mais a depuis quitté l’entreprise et dirige maintenant le centre de recherche d’alignement à but non lucratif, a lancé l’avertissement dans le Bankless (s’ouvre dans un nouvel onglet) podcast.
Au cours de l’interview, les animateurs ont évoqué la perspective d’un «scénario de malheur Eliezer Yudkowsky», Yudkowsky étant un sceptique bien connu de l’IA depuis de nombreuses années (en fait quelques décennies).
Christiano a déclaré aux hôtes : « Eliezer est dans cette transformation extrêmement rapide une fois que vous développez l’IA. J’ai un peu moins d’opinion extrême là-dessus.
Il décrit ensuite plus un processus graduel de passage à la vitesse supérieure avec l’accélération du changement de l’IA, et observe que : « Dans l’ensemble, vous avez peut-être plus de chances de tomber à 50/50 peu de temps après avoir des systèmes d’IA qui sont au niveau humain. ”
Christiano a également déclaré sur le podcast qu’il y avait « quelque chose comme 10 à 20% de chances de prise de contrôle de l’IA » qui se produirait finalement, aboutissant à un scénario assez sombre où de nombreux (voire la plupart) des humains sont morts. « Je prends ça très au sérieux », ajoute Christiano. Eh bien, sans blague.
La mission du centre de recherche sur l’alignement est « d’aligner l’avenir de l’apprentissage automatique [AI] des systèmes d’intérêts humains ».
Destin éternel ?
Ceci est encore un autre parmi un bon vieux tas d’avertissements récents sur la façon dont le monde pourrait finir par être affecté négativement par l’IA. Et l’un des plus extrêmes, à coup sûr, étant donné le discours sur le destin de l’humanité et la population de la terre en grande partie anéantie.
Certes, même Christiano ne pense pas qu’il y ait plus qu’une chance relativement faible que ce dernier se produise, mais néanmoins, un lancer de dés de 20% (scénario du pire) pour une prise de contrôle hostile de l’IA n’est pas une perspective que quiconque apprécierait.
Il est bien sûr intéressant que toute prise de contrôle de l’IA soit hostile. Ne pouvons-nous pas avoir le développement d’une intelligence artificielle réfléchie et bienveillante qui règne véritablement dans notre meilleur intérêt, juste pour une fois ? Et bien non. Toute IA peut commencer avec de bonnes intentions, mais elles dérailleront inévitablement, et les jugements pour le « meilleur » finiront par mal tourner de manière spectaculaire. Vous avez vu les films, n’est-ce pas ?
En toute sincérité, le point soulevé maintenant est que même si l’IA n’est pas vraiment intelligente – pas en tant que telle pour l’instant, il s’agit essentiellement d’un gros aspirateur de données (gargantuesque), qui analyse toutes ces données et qui, certes, fait déjà une utilisation impressionnante dudit matériel – nous avons encore besoin de lignes directrices et de règles en place le plus tôt possible pour éviter toute catastrophe potentielle à l’avenir.
Ces catastrophes peuvent prendre la forme de violations de la vie privée, par exemple, plutôt que la fin du monde tel que nous le connaissons (TM), mais elles doivent toujours être protégées.
L’avertissement le plus récent sur l’IA délivré par un expert vient du soi-disant « parrain de l’IA » qui vient de quitter Google. Geoffrey Hinton a essentiellement décrit les arguments généraux contre l’IA, ou du moins, contre son expansion incontrôlée et rapide – qui se produit actuellement – y compris les dangers que l’IA nous déjoue beaucoup plus rapidement qu’il ne l’avait prévu. Sans parler de la menace sur l’emploi, qui est déjà bien réelle. C’est le péril le plus pressant à court terme dans notre livre.
Cela fait suite à une lettre ouverte appelant à une pause avec le développement de ChatGPT et d’autres systèmes d’IA pendant au moins six mois, signée par Elon Musk entre autres (qui a sa propre réponse sous la forme d’une IA qu’il promet «peu susceptible d’anéantir humains »).