L’ancienne star d’OpenAI, Sutskever, vise l’IA superintelligente avec une nouvelle entreprise

Agrandir / Ilya Sutskever fait un geste physique sous le regard du PDG d’OpenAI, Sam Altman, à l’université de Tel Aviv, le 5 juin 2023.

Mercredi, l’ancien scientifique en chef d’OpenAI, Ilya Sutskever, a annoncé qu’il créait une nouvelle société appelée Safe Superintelligence, Inc. (SSI) dans le but de construire en toute sécurité une « superintelligence », qui est une forme hypothétique d’intelligence artificielle qui surpasse l’intelligence humaine, peut-être en l’extrême.

« Nous rechercherons une superintelligence sûre d’un seul coup, avec un seul objectif, un seul objectif et un seul produit », a écrit Sutskever sur X. « Nous y parviendrons grâce à des percées révolutionnaires produites par une petite équipe craquelée.« 

Sutskever était un membre fondateur d’OpenAI et était auparavant scientifique en chef de l’entreprise. Deux autres personnes rejoignent initialement Sutskever chez SSI : Daniel Levy, qui dirigeait auparavant l’équipe d’optimisation chez OpenAI, et Daniel Gross, un investisseur en IA qui a travaillé sur des projets d’apprentissage automatique chez Apple entre 2013 et 2017. Le trio a publié une déclaration sur le nouveau projet de l’entreprise. site web.

Une capture d'écran de l'annonce de la formation initiale de Safe Superintelligence, prise le 20 juin 2024.
Agrandir / Une capture d’écran de l’annonce de la formation initiale de Safe Superintelligence, prise le 20 juin 2024.

Sutskever et plusieurs de ses collègues ont démissionné d’OpenAI en mai, six mois après que Sutskever ait joué un rôle clé dans l’éviction du PDG d’OpenAI, Sam Altman, qui est revenu plus tard. Même si Sutskever ne s’est pas publiquement plaint d’OpenAI après son départ (et que des dirigeants d’OpenAI tels qu’Altman lui ont souhaité bonne chance dans ses nouvelles aventures), un autre membre démissionnaire de l’équipe Superalignment d’OpenAI, Jan Leike, s’est plaint publiquement que « au cours des dernières années, la culture et les processus de sécurité [had] passé au second plan face aux produits brillants » chez OpenAI. Leike a rejoint le concurrent d’OpenAI Anthropic plus tard en mai.

Un concept nébuleux

OpenAI cherche actuellement à créer une AGI, ou intelligence artificielle générale, qui pourrait hypothétiquement égaler l’intelligence humaine pour effectuer une grande variété de tâches sans formation spécifique. Sutskever espère sauter au-delà de cela dans une tentative directe, sans distractions en cours de route.

« Cette société est spéciale dans la mesure où son premier produit sera la superintelligence sûre, et elle ne fera rien d’autre d’ici là », a déclaré Sutskever dans une interview à Bloomberg. « Il sera totalement à l’abri des pressions extérieures liées au fait de devoir gérer un produit volumineux et complexe et de devoir se retrouver coincé dans une course effrénée de compétition. »

Au cours de son ancien travail chez OpenAI, Sutskever faisait partie de l’équipe « Superalignment » qui étudiait comment « aligner » (façonner le comportement de) cette forme hypothétique d’IA, parfois appelée « ASI » pour « super intelligence artificielle », afin d’être bénéfique pour humanité.

Comme vous pouvez l’imaginer, il est difficile d’aligner quelque chose qui n’existe pas, c’est pourquoi la quête de Sutskever a parfois suscité le scepticisme. Sur X, Pedro Domingos, professeur d’informatique à l’Université de Washington (et critique fréquent d’OpenAI), a écrit : « La nouvelle entreprise d’Ilya Sutskever est assurée de réussir, car une superintelligence qui n’est jamais atteinte est garantie d’être sûre.« 

Tout comme l’AGI, la superintelligence est un terme nébuleux. Étant donné que les mécanismes de l’intelligence humaine sont encore mal compris – et que l’intelligence humaine est difficile à quantifier ou à définir car il n’existe pas de type défini d’intelligence humaine – identifier la superintelligence lorsqu’elle apparaît peut s’avérer délicate.

Les ordinateurs surpassent déjà de loin les humains dans de nombreuses formes de traitement de l’information (comme les mathématiques de base), mais sont-ils superintelligents ? De nombreux partisans de la superintelligence imaginent un scénario de science-fiction d’une « intelligence extraterrestre » avec une forme de sensibilité qui fonctionne indépendamment des humains, et c’est plus ou moins ce que Sutskever espère réaliser et contrôler en toute sécurité.

« Vous parlez d’un super centre de données géant qui développe une technologie de manière autonome », a-t-il déclaré à Bloomberg. « C’est fou, non ? C’est à la sécurité de cela que nous voulons contribuer. »

Source-147