L’Instinct MI300 d’AMD s’annonce comme une puce incroyable avec des cœurs CPU et GPU et une lourde dalle de mémoire haute vitesse réunis sur le même processeur, mais les détails sont restés légers. Nous avons maintenant rassemblé de nouveaux détails à partir d’une présentation International Super Computing (ISC) 2023 qui décrit le prochain supercalculateur El Capitan à deux exaflops qui sera alimenté par l’Instinct MI300. Nous avons également trouvé d’autres détails dans un discours du CTO Mark Papermaster d’AMD à ITF World 2023, une conférence organisée par le géant de la recherche imec (vous pouvez lire notre interview avec Papermaster ici).
Le supercalculateur El Capitan est sur le point d’être le plus rapide au monde lorsqu’il s’allumera fin 2023, prenant la position de leader du Frontier alimenté par AMD. Le puissant Instinct MI300 d’AMD alimentera la machine, et de nouveaux détails incluent une carte topologique d’une installation MI300, des images du laboratoire Austin MI300 d’AMD et une image des nouvelles lames qui seront utilisées dans le supercalculateur El Capitan. Nous couvrirons également certains des autres nouveaux développements autour du déploiement d’El Capitan.
Pour rappel, l’Instinct MI300 est un APU de centre de données qui mélange un total de 13 chiplets, dont beaucoup sont empilés en 3D, pour créer un seul paquet de puces avec vingt-quatre cœurs de processeur Zen 4 fusionnés avec un moteur graphique CDNA 3 et huit piles de mémoire HBM3 totalisant 128 Go. Dans l’ensemble, la puce pèse 146 milliards de transistors, ce qui en fait la plus grande puce qu’AMD ait mise en production. Les neuf matrices de calcul, un mélange de processeurs et de GPU de 5 nm, sont empilées en 3D sur quatre matrices de base de 6 nm qui sont des interposeurs actifs qui gèrent la mémoire et le trafic d’E/S, entre autres fonctions.
Le discours d’ouverture de l’ITF World de Papermaster s’est concentré sur l’objectif « 30×25 » d’AMD d’augmenter l’efficacité énergétique de 30x d’ici 2025, et sur la façon dont l’informatique est désormais contrôlée par l’efficacité énergétique à mesure que la loi de Moore ralentit. La clé de cette initiative est l’Instinct MI300, et une grande partie de ses gains proviennent de la topologie simplifiée du système que vous voyez ci-dessus.
Comme vous pouvez le voir dans la première diapositive, un nœud alimenté par Instinct MI250 a des CPU et des GPU séparés, avec un seul CPU EPYC au milieu pour coordonner les charges de travail.
En revanche, l’Instinct MI300 contient un processeur EPYC Genoa de quatrième génération à 24 cœurs intégré à l’intérieur du boîtier, supprimant ainsi un processeur autonome de l’équation. Cependant, la même topologie globale reste, sans le processeur autonome, permettant une topologie tout-à-tout entièrement connectée avec quatre éléments. Ce type de connexion permet à tous les processeurs de se parler directement sans qu’un autre CPU ou GPU ne serve d’intermédiaire pour relayer les données vers les autres éléments, réduisant ainsi la latence et la variabilité. C’est un problème potentiel avec la topologie MI250. La carte topologique du MI300 indique également que chaque puce a trois connexions, comme nous l’avons vu avec le MI250. Les diapositives de Papermaster font également référence aux interposeurs actifs qui forment les matrices de base en tant que « matrice de base en tissu infini de quatrième génération ».
Comme vous pouvez le voir dans le reste de ces diapositives, le MI300 a placé AMD sur une voie claire pour dépasser ses objectifs d’efficacité 30X25 tout en dépassant la tendance de puissance de l’industrie. Nous avons également ajouté quelques photos du silicium Instinct MI300 que nous avons vu de première main, mais ci-dessous, nous voyons à quoi ressemble le MI300 à l’intérieur d’une lame réelle qui sera installée à El Capitan.
AMD Instinct MI300 dans El Capitan
Lors de l’ISC 2023, Bronis R. de Supinski, directeur technique du Lawrence Livermore National Laboratory (LLNL), a parlé de l’intégration des APU Instinct MI300 dans le supercalculateur El Capitan. La National Nuclear Security Administration (NNSA) utilisera El Capitan pour poursuivre les utilisations militaires de la technologie nucléaire.
Comme vous pouvez le voir dans la première image de l’album ci-dessus, Supinski a montré une seule lame pour le système El Capitan. Cette lame, fabriquée par le fournisseur de systèmes HPE, comprend quatre cartes Instinct MI300 refroidies par liquide dans un châssis 1U mince. Supinksi a également montré une photo du laboratoire d’AMD à Austin, où ils ont du silicium MI300 fonctionnel, montrant ainsi que les puces sont réelles et déjà en cours de test – un point clé à souligner compte tenu de certains des récents faux pas avec les systèmes alimentés par Intel.
Supinksi a souvent qualifié le MI300 de « MI300A », mais nous ne savons pas s’il s’agit d’un modèle personnalisé pour El Capitan ou d’un numéro de produit plus formel.
Supinski a déclaré que la puce est livrée avec un Infinity Cache mais n’a pas précisé la capacité disponible. Supinski a également cité l’importance du niveau de mémoire unique à plusieurs reprises, notant comment l’espace mémoire unifié simplifie la programmation, car il réduit la complexité du mouvement des données entre différents types de calcul et différents pools de mémoire.
Supinski note que le MI300 peut fonctionner dans plusieurs modes différents, mais le mode principal se compose d’un seul domaine de mémoire et d’un domaine NUMA, fournissant ainsi une mémoire d’accès uniforme pour tous les cœurs CPU et GPU. L’essentiel est que la mémoire cache cohérente réduit le mouvement des données entre le CPU et le GPU, qui consomme souvent plus d’énergie que le calcul lui-même, réduisant ainsi la latence et améliorant les performances et l’efficacité énergétique. Supinksi dit également qu’il était relativement facile de transférer le code du supercalculateur Sierra vers El Capitan.
Le reste des diapositives de Supinski comprend des informations qu’AMD a déjà divulguées, y compris des projections de performances de 8 fois les performances de l’IA et de 5 fois les performances par watt du MI250X.
HPE construit le système El Capitan basé sur son architecture Shasta et son interconnexion réseau Slingshot-11. Il s’agit de la même plate-forme qui alimente les deux autres supercalculateurs exascale du DOE, Frontier, le supercalculateur le plus rapide au monde, et Aurora, souvent retardé, alimenté par le silicium Intel.
La NNSA a dû construire plus d’infrastructures pour faire fonctionner simultanément le supercalculateur Sierra et El Capitan. Ce travail comprenait le renforcement de la fourniture d’énergie dédiée au calcul de 45 MW à 85 MW. Une puissance supplémentaire de 15 MW est disponible pour le système de refroidissement, qui a été porté à 28 000 tonnes en ajoutant une nouvelle tour de refroidissement de 18 000 tonnes. Cela donne au site un total de 100 MW de puissance, mais El Capitan devrait consommer moins de 40 MW, bien que la valeur réelle puisse être d’environ 30 MW – les chiffres définitifs ne seront pas connus avant le déploiement.
El Capitan sera le premier système de technologie avancée (ATS) qui utilise le logiciel de système d’exploitation Tri-lab personnalisé (TOSS) de NNSA, une pile logicielle complète basée sur RHEL.
Le programme Rabbit d’El Capitan pour le stockage
Le LLNL utilise des systèmes « EAS3 » plus petits pour tester le logiciel qui sera déployé sur El Capitan lorsqu’il sera opérationnel plus tard cette année. LLNL teste déjà de nouveaux modules Rabbit qui hébergeront une pléthore de SSD pour le stockage local proche du nœud. Ci-dessus, vous pouvez voir les schémas fonctionnels de ces nœuds, mais sachez qu’ils n’utilisent pas les accélérateurs MI300 – à la place, ils ont des processeurs de serveur EPYC standard pour les tâches d’orchestration du stockage et d’analyse des données. Ces nœuds rapides semblent servir de tampons en rafale qui absorbent rapidement d’énormes quantités de données entrantes, qui seront ensuite transférées vers le système de stockage en masse plus lent.
Chronologie AMD Instinct MI300
Le développement se poursuivant à un rythme prévisible, il est clair qu’El Capitan est en bonne voie pour être opérationnel plus tard cette année. Le MI300 ouvre une nouvelle voie pour les offres de calcul hautes performances d’AMD, mais AMD nous dit que ces puces Halo MI300 seront chères et relativement rares – ce ne sont pas des produits à volume élevé, elles ne verront donc pas un déploiement à grande échelle comme l’EPYC. Processeurs du centre de données de Gênes. Cependant, la technologie filtrera vers plusieurs variantes dans différents facteurs de forme.
Cette puce rivalisera également avec la Grace Hopper Superchip de Nvidia, qui est la combinaison d’un GPU Hopper et du processeur Grace sur la même carte. Ces puces devraient arriver cette année. Les processeurs Grace basés sur Neoverse prennent en charge le jeu d’instructions Arm v9, et les systèmes sont livrés avec deux puces fusionnées avec la nouvelle technologie d’interconnexion NVLink-C2C de Nvidia. En revanche, l’approche d’AMD est conçue pour offrir un débit et une efficacité énergétique supérieurs, car la combinaison de ces appareils dans un seul boîtier permet généralement un débit plus élevé entre les unités que lors de la connexion à deux appareils distincts comme le fait Grace Hopper.
Le MI300 était également censé concurrencer le Falcon Shores d’Intel, une puce initialement conçue pour comporter un nombre variable de tuiles de calcul avec des cœurs x86, des cœurs GPU et de la mémoire dans de nombreuses configurations possibles. Intel les a récemment reportés à 2025 et a redéfini les puces pour qu’elles ne comportent qu’une architecture GPU et IA – elles ne comporteront désormais plus de cœurs de processeur. En effet, cela laisse Intel sans concurrent direct pour l’Instinct MI300.
Étant donné la date de mise sous tension d’El Capitan qui approche à grands pas et la réputation d’AMD de faire fonctionner les supercalculateurs à temps, nous pouvons nous attendre à ce qu’AMD commence bientôt à partager beaucoup plus d’informations sur ses APU Instinct Mi300. AMD accueillera le 13 juin l’événement de diffusion en direct du centre de données de nouvelle génération et de la technologie AI de la société, et nous espérons en savoir plus là-bas. Nous ne manquerons pas de vous apporter les dernières nouvelles de cet événement lorsqu’il arrivera.