Une startup construit un supercalculateur avec 22 000 GPU de calcul H100 de Nvidia

Inflection AI, une nouvelle startup fondée par l’ancien responsable de l’esprit profond et soutenue par Microsoft et Nvidia, a levé la semaine dernière 1,3 milliard de dollars auprès des poids lourds de l’industrie en espèces et en crédit cloud. Il semble que la société utilisera l’argent pour construire un cluster de superordinateurs alimenté par jusqu’à 22 000 GPU de calcul H100 de Nvidia, qui auront des performances de puissance de calcul théoriques maximales comparables à celles du superordinateur Frontier.

« Nous allons construire un cluster d’environ 22 000 H100 », a déclaré Mustafa Suleyman, le fondateur de DeepMind et co-fondateur d’Inflection AI, rapporte Reuters. « C’est environ trois fois plus de calcul que ce qui a été utilisé pour former tout le GPT-4. La vitesse et l’échelle sont ce qui va vraiment nous permettre de créer un produit différencié. »

Un cluster alimenté par 22 000 GPU de calcul Nvidia H100 est théoriquement capable de 1,474 exaflops de performances FP64, c’est-à-dire en utilisant les cœurs Tensor. Avec le code FP64 général s’exécutant sur les cœurs CUDA, le débit maximal n’est que deux fois moins élevé : 0,737 exaflops FP64. Pendant ce temps, le supercalculateur le plus rapide au monde, Frontier, a des performances de calcul maximales de 1,813 exaflops FP64 (le double à 3,626 exaflops pour les opérations matricielles). Cela place le nouvel ordinateur prévu à la deuxième place pour le moment, bien qu’il puisse tomber à la quatrième après qu’El Capitan et Aurora soient entièrement en ligne.

Bien que les performances du FP64 soient importantes pour de nombreuses charges de travail scientifiques, ce système sera probablement beaucoup plus rapide pour les tâches axées sur l’IA. Le débit maximal FP16/BF16 est de 43,5 exaflops, et le double à 87,1 exaflops pour le débit FP8. Le supercalculateur Frontier alimenté par 37 888 Instinct MI250X d’AMD a un débit maximal BF16/FP16 de 14,5 exaflops.

Le coût du cluster est inconnu, mais en gardant à l’esprit que les GPU de calcul H100 de Nvidia coûtent plus de 30 000 $ par unité, nous nous attendons à ce que les GPU du cluster coûtent des centaines de millions de dollars. Ajoutez tous les serveurs rack et autres matériels et cela représenterait la majeure partie du financement de 1,3 milliard de dollars.

Inflection AI est actuellement évalué à environ 4 milliards de dollars, environ un an après sa fondation. Son seul produit actuel est un chatbot IA générationnel appelé Pi, abréviation d’intelligence personnelle. Pi est conçu pour servir d’assistant personnel alimenté par l’IA avec une technologie d’IA générative semblable à ChatGPT qui prendra en charge la planification, la planification et la collecte d’informations. Cela permet à Pi de communiquer avec les utilisateurs via le dialogue, ce qui permet aux gens de poser des questions et d’offrir des commentaires. Entre autres choses, Inflection AI a défini des objectifs spécifiques d’expérience utilisateur pour Pi, tels que l’offre d’un soutien émotionnel.

À l’heure actuelle, Inflection AI exploite un cluster basé sur 3 584 GPU de calcul Nvidia H100 dans le cloud Microsoft Azure. Le cluster de supercalcul proposé offrirait environ six fois les performances de la solution actuelle basée sur le cloud.

Source-138