PDG d’OpenAI : « Nous pourrions avoir une superintelligence artificielle dans quelques milliers de jours »

Lundi, le PDG d’OpenAI, Sam Altman, a présenté sa vision d’un avenir axé sur l’IA, fait de progrès technologiques et de prospérité mondiale, dans un nouveau billet de blog personnel intitulé « L’ère de l’intelligence ». L’essai dresse un tableau du progrès humain accéléré par l’IA, Altman suggérant qu’une IA superintelligente pourrait émerger au cours de la prochaine décennie.

« Il est possible que nous ayons une superintelligence dans quelques milliers de jours (!); cela peut prendre plus de temps, mais je suis convaincu que nous y parviendrons », écrit-il.

L’objectif actuel d’OpenAI est de créer une intelligence artificielle générale (AGI), un terme désignant une technologie hypothétique capable d’égaler l’intelligence humaine dans la réalisation de nombreuses tâches sans nécessiter de formation spécifique. En revanche, la superintelligence surpasse l’AGI et pourrait être considérée comme un niveau hypothétique d’intelligence artificielle capable de surpasser considérablement les humains dans n’importe quelle tâche intellectuelle, peut-être même à un degré insondable.

La superintelligence (parfois appelée « ASI » pour « superintelligence artificielle ») est un sujet populaire mais parfois marginal au sein de la communauté de l’apprentissage automatique, et ce depuis des années, en particulier depuis que le philosophe controversé Nick Bostrom a écrit un livre intitulé Superintelligence : chemins, dangers, stratégies En juin 2014, l’ancien cofondateur et scientifique en chef d’OpenAI, Ilya Sutskever, a quitté OpenAI pour fonder une entreprise portant le terme Safe Superintelligence dans son nom. Altman lui-même parle de développer une superintelligence depuis au moins l’année dernière.

Alors, combien de temps durent « quelques milliers de jours » ? On ne peut pas le dire exactement. La raison probable pour laquelle Altman a choisi un nombre vague est qu’il ne sait pas exactement quand l’ASI arrivera, mais il semble penser que cela pourrait se produire d’ici une décennie. À titre de comparaison, 2 000 jours correspondent à environ 5,5 ans, 3 000 jours à environ 8,2 ans et 4 000 jours à presque 11 ans.

Il est facile de critiquer le manque de précision d’Altman ici : personne ne peut vraiment prédire l’avenir, mais Altman, en tant que PDG d’OpenAI, est probablement au courant des techniques de recherche en IA qui sont en cours de développement et qui ne sont pas largement connues du public. Ainsi, même si l’on s’en tient à un horizon temporel assez large, l’affirmation provient d’une source notable dans le domaine de l’IA, bien que fortement investie pour s’assurer que les progrès de l’IA ne stagnent pas.

Tout le monde ne partage pas l’optimisme et l’enthousiasme d’Altman. L’informaticien Grady Booch, qui critique fréquemment le battage médiatique autour de l’IA sur les réseaux sociaux, a cité la prédiction d’Altman sur les « quelques milliers de jours » et a écrit sur X : « Je suis tellement fatigué de tout le battage médiatique autour de l’IA : il n’a aucun fondement dans la réalité et ne sert qu’à gonfler les valorisations, à enflammer le public, à faire monter les prix … [sic] « Les gros titres font la une des journaux et détournent l’attention du véritable travail en cours dans le domaine de l’informatique. »

Malgré les critiques, il est intéressant de constater que le PDG de ce qui est probablement l’entreprise d’IA la plus importante du moment fait une prédiction générale sur les capacités futures, même si cela signifie qu’il essaie en permanence de lever des fonds. La construction d’infrastructures pour alimenter les services d’IA est au cœur des préoccupations de nombreux PDG du secteur technologique ces jours-ci.

« Si nous voulons mettre l’IA entre les mains du plus grand nombre possible de personnes », écrit Altman dans son essai, « nous devons réduire le coût de l’informatique et la rendre abondante (ce qui nécessite beaucoup d’énergie et de puces). Si nous ne construisons pas suffisamment d’infrastructures, l’IA sera une ressource très limitée pour laquelle des guerres seront menées et qui deviendra principalement un outil pour les riches. »

La vision d’Altman pour « l’ère du renseignement »

Le PDG d'OpenAI, Sam Altman, marche du côté de la Chambre du Capitole américain le 11 janvier 2024, à Washington, DC.
Agrandir / Le PDG d’OpenAI, Sam Altman, marche du côté de la Chambre du Capitole américain le 11 janvier 2024, à Washington, DC.

Kent Nishimura/Getty Images

Dans son essai, Altman décrit notre époque comme l’aube de « l’ère de l’intelligence », la prochaine ère technologique transformatrice de l’histoire humaine, après l’âge de pierre, l’ère agricole et l’ère industrielle. Il attribue le succès des algorithmes d’apprentissage profond comme catalyseur de cette nouvelle ère, affirmant simplement : « Comment sommes-nous arrivés au seuil du prochain bond en avant en matière de prospérité ? En trois mots : l’apprentissage profond a fonctionné. »

Le directeur d’OpenAI envisage que les assistants IA deviennent de plus en plus performants, formant à terme des « équipes d’IA personnelles » qui peuvent aider les individus à accomplir presque tout ce qu’ils peuvent imaginer. Il prédit que l’IA permettra des avancées dans l’éducation, la santé, le développement de logiciels et d’autres domaines.

Tout en reconnaissant les inconvénients potentiels et les perturbations du marché du travail, Altman reste optimiste quant à l’impact global de l’IA sur la société. Il écrit : « La prospérité à elle seule ne rend pas nécessairement les gens heureux – il y a beaucoup de riches malheureux – mais elle améliorerait considérablement la vie des gens dans le monde entier. »

Même si la réglementation de l’IA, comme la SB-1047, est le sujet brûlant du moment, Altman n’a pas mentionné les dangers de l’IA dans le domaine de la science-fiction en particulier. Sur X, le chroniqueur de Bloomberg Matthew Yglesias a écrit : « Il est remarquable que @sama ne fasse même plus semblant d’évoquer les risques existentiels, les seuls inconvénients qu’il envisage sont les problèmes d’ajustement du marché du travail. »

Bien qu’enthousiasmé par le potentiel de l’intelligence artificielle, Altman appelle lui aussi à la prudence, mais de manière vague. Il écrit : « Nous devons agir avec sagesse mais avec conviction. L’aube de l’ère de l’intelligence est une évolution capitale, avec des défis très complexes et des enjeux extrêmement élevés. Ce ne sera pas une histoire entièrement positive, mais les avantages sont si énormes que nous nous devons, à nous-mêmes et à l’avenir, de trouver comment gérer les risques qui nous attendent. »

Outre les perturbations du marché du travail, Altman ne dit pas en quoi l’ère du renseignement ne sera pas entièrement positive, mais il termine avec une analogie avec une profession obsolète qui a été perdue en raison des changements technologiques.

« Il y a quelques centaines d’années, beaucoup des métiers que nous exerçons aujourd’hui auraient semblé être une perte de temps insignifiante aux yeux des gens, mais personne ne se retourne vers le passé en souhaitant devenir allumeur de réverbères », écrit-il. « Si un allumeur de réverbères pouvait voir le monde d’aujourd’hui, il penserait que la prospérité qui l’entoure est inimaginable. Et si nous pouvions avancer de cent ans dans le temps, la prospérité qui nous entoure nous semblerait tout aussi inimaginable. »

L’article a été mis à jour le 24 septembre 2024 à 13h15 pour corriger une erreur d’édition qui déformait la position de Grady Booch sur l’IA.

Source-147