Sutskever décroche un prix en or avec un soutien d’un milliard de dollars pour une IA superintelligente

Agrandir / Ilya Sutskever, scientifique en chef d’OpenAI, s’exprime à l’Université de Tel Aviv le 5 juin 2023.

Mercredi, Reuters a annoncé que Safe Superintelligence (SSI), une nouvelle start-up d’intelligence artificielle cofondée par l’ancien scientifique en chef d’OpenAI, Ilya Sutskever, a levé 1 milliard de dollars de financement. L’entreprise, créée il y a trois mois, prévoit de se concentrer sur le développement de ce qu’elle appelle des systèmes d’IA « sûrs » qui dépassent les capacités humaines.

Cette levée de fonds montre que même si le scepticisme grandit autour des investissements massifs dans les technologies de l’IA, qui n’ont pas encore été rentables, certains bailleurs de fonds sont toujours prêts à parier gros sur des talents de haut niveau dans la recherche fondamentale en IA. Des sociétés de capital-risque comme Andreessen Horowitz, Sequoia Capital, DST Global et SV Angel ont participé au tour de financement de SSI.

SSI compte utiliser les nouveaux fonds pour accroître sa puissance de calcul et attirer des talents. Avec seulement 10 employés pour le moment, l’entreprise a l’intention de constituer une équipe plus importante de chercheurs répartis sur des sites à Palo Alto, en Californie, et à Tel Aviv, a rapporté Reuters.

Bien que SSI n’ait pas officiellement dévoilé sa valorisation, des sources ont déclaré à Reuters qu’elle était évaluée à 5 milliards de dollars, ce qui est un montant incroyablement élevé, seulement trois mois après la fondation de la société et sans aucun produit connu publiquement encore développé.

Fils d’OpenAI

Illya Sutskever, scientifique en chef d'OpenAI, s'exprime au TED AI 2023.
Agrandir / Illya Sutskever, scientifique en chef d’OpenAI, s’exprime au TED AI 2023.

Benj Edwards

Tout comme Anthropic avant elle, SSI est née d’une scission fondée en partie par d’anciens employés d’OpenAI. Sutskever, 37 ans, a cofondé SSI avec Daniel Gross, qui dirigeait auparavant les initiatives d’IA chez Apple, et Daniel Levy, un ancien chercheur d’OpenAI.

Le départ de Sutskever d’OpenAI fait suite à une période difficile au sein de l’entreprise, qui aurait inclus le désenchantement du fait que la direction d’OpenAI ne consacrait pas les ressources appropriées à son équipe de recherche « superalignment » et ensuite l’implication de Sutskever dans le bref limogeage du PDG d’OpenAI, Sam Altman, en novembre dernier. Après avoir quitté OpenAI en mai, Sutskever a déclaré que sa nouvelle entreprise «« Poursuivre une superintelligence sûre en un seul coup, avec un seul objectif, un seul but et un seul produit. »

La superintelligence, comme nous l’avons déjà mentionné, est un terme nébuleux pour désigner une technologie hypothétique qui dépasserait de loin l’intelligence humaine. Rien ne garantit que Sutskever réussira sa mission (et les sceptiques sont nombreux), mais la notoriété qu’il a acquise grâce à sa réputation d’universitaire et à son statut de cofondateur clé d’OpenAI a rendu relativement facile la levée de fonds rapide pour sa nouvelle entreprise.

L’entreprise prévoit de consacrer quelques années à la recherche et au développement avant de mettre un produit sur le marché, et son objectif autoproclamé de « sécurité de l’IA » découle de la conviction que de puissants systèmes d’IA pouvant entraîner des risques existentiels pour l’humanité sont à l’horizon.

Le sujet de la « sécurité de l’IA » a suscité un débat au sein de l’industrie technologique, les entreprises et les experts en IA adoptant des positions différentes sur les réglementations de sécurité proposées, notamment la controversée SB-1047 de Californie, qui pourrait bientôt devenir loi. Étant donné que le sujet du risque existentiel posé par l’IA est encore hypothétique et souvent guidé par l’opinion personnelle plutôt que par la science, cette controverse particulière n’est pas près de s’éteindre.

Source-147