L’événement de lancement d’AMD pour sa nouvelle plate-forme MI300X AI a été soutenu par certains des plus grands noms du secteur, notamment Microsoft, Meta, OpenAI et bien d’autres. Ces trois grands ont tous dit qu’ils prévoyaient d’utiliser la puce.
Lisa Su, PDG d’AMD, a vanté le MI300X, le décrivant comme la puce la plus complexe jamais produite par la société. Au total, il contient 153 milliards de transistors, soit bien plus que les 80 milliards du GPU H100 de Nvidia.
Il est également construit à partir de pas moins de 12 chipsets sur un mélange de nœuds de 5 nm et 6 nm en utilisant ce qu’AMD considère comme le packaging le plus avancé au monde. La couche de base de la puce est constituée de quatre grandes matrices d’E/S, dont le cache Infinity, PCIe Gen 5, les interfaces HBM et Infinity Fabric. À cela s’ajoutent huit chipsets d’accélérateur CDNA 3 ou « XCD » pour un total de 1,3 pétaflops de puissance de calcul brute FP16.
De chaque côté de ces matrices empilées se trouvent huit modules de mémoire HBM3 pour un total de 192 Go de mémoire. Alors oui, cette chose est un monstre.
Dans l’ensemble, AMD affirme que le MI300X a 2,4 fois la capacité de mémoire, 1,6 fois la bande passante mémoire et 1,3 fois la puissance de calcul brute du H100 de Nvidia. Dans les tests d’entraînement et d’inférence réels en IA, AMD affirme généralement que le MI300X est environ 1,2 fois plus rapide que le H100.
En réalité, tant que le MI300X est globalement compétitif sur le plan matériel, les détails les plus fins de la comparaison n’ont probablement pas beaucoup d’importance. Parce que le support logiciel sera sans doute plus important. La plate-forme CUDA de Nvidia est jusqu’à présent bien mieux prise en charge que le ROCm d’AMD, ce dernier a donc beaucoup à prouver.
Il convient de noter que Nvidia emploie plus d’ingénieurs logiciels que d’ingénieurs matériels, ce qui en dit long sur les domaines dans lesquels Nvidia accorde de la valeur et de l’importance.
Cela dit, AMD a souligné que son avantage en termes de capacité de mémoire signifie que vous pouvez faire beaucoup plus de MI300X que le H100 de Nvidia. Un nœud de serveur entièrement constitué de huit MI300X fournit 1,5 To de mémoire aux 640 Go du nœud Nvidia H100 GHX équivalent.
Il reste à voir quel sera le succès du MI300X. Bien qu’il soit évidemment prometteur de voir Microsoft, Meta et OpenAI soutenir le grand lancement de l’IA d’AMD, nous ne savons pas quelles puces ils achèteront réellement.
Comme nous l’avons signalé, on estime que Microsoft a acheté à lui seul pour 5 milliards de livres sterling de GPU Nvidia H100 au cours du dernier trimestre terminé. Ce qui ne ressort pas clairement de cet événement, c’est si des entreprises comme Microsoft envisagent de dépenser des milliards avec AMD ou si leur implication à ce stade consiste autant à maintenir Nvidia en alerte avec l’apparence d’une volonté d’acheter un produit concurrent qu’à réellement le faire. acheter des quantités vraiment importantes du nouveau GPU d’AMD.
De même, AMD se montre très prudent quant à ses prévisions de revenus du MI300X. Mais cela reflète-t-il ses véritables ambitions, ou tente-t-il de réduire les attentes à un niveau bas, puis de les dépasser ? Comme toujours, surveillez cet espace.
Ce que tout cela signifie pour les jeux sur PC est tout aussi, sinon plus flou. Si AMD peut gagner beaucoup d’argent avec les puces IA, cela le place en théorie dans une meilleure position pour investir dans la technologie GPU de jeu. D’un autre côté, cela pourrait également détourner l’attention d’AMD et même son accès aux capacités de fabrication de pointe de son principal partenaire fondeur TSMC.
Tout cela signifie que nous devrons simplement attendre et voir comment cela se déroulera. En général, nous pensons que les bons résultats d’AMD en matière d’IA seront une bonne chose pour les joueurs sur PC si cela permet d’obtenir un AMD plus sain et plus fort. mais il y a également tellement de variables en jeu qu’il est assez difficile d’en être sûr. si vous souhaitez en savoir plus, vous pouvez regarder l’intégralité de l’événement de lancement ici.