AMD va fusionner des moteurs FPGA AI sur des processeurs EPYC, arrive en 2023

(Crédit image : matériel de Tom)

AMD a annoncé lors de son appel aux résultats qu’il infusera son portefeuille de processeurs avec le moteur d’inférence IA alimenté par FPGA de Xilinx, les premiers produits devant arriver en 2023. La nouvelle indique qu’AMD agit rapidement pour incorporer les fruits de son acquisition de Xilinx de 54 milliards de dollars. dans sa gamme, mais ce n’est pas tout à fait surprenant – les brevets récents de la société indiquent qu’elle est déjà bien avancée dans l’activation de plusieurs méthodes de connexion des accélérateurs d’IA à ses processeurs, y compris l’utilisation d’une technologie sophistiquée d’empilement de puces 3D.

La décision d’AMD de coupler ses processeurs avec des FPGA intégrés dans le même package n’est pas entièrement nouvelle – Intel a essayé la même approche avec le portefeuille FPGA qu’il a gagné grâce à son achat d’Altera pour 16,7 milliards de dollars fin 2015. Cependant, après qu’Intel a annoncé le CPU combiné + Puce FPGA en 2014 et a même fait la démonstration d’une puce de test, le silicium n’est arrivé qu’en 2018, et seulement d’une manière expérimentale limitée qui a apparemment abouti à une impasse. Nous n’avons pas entendu parler du projet d’Intel, ou de tout autre dérivé de celui-ci, depuis des années.

Image 1 sur 3

DMLA

(Crédit image : AMD)
Image 2 sur 3

DMLA

(Crédit image : AMD)
Image 3 sur 3

DMLA

(Crédit image : AMD)

AMD n’a pas encore révélé de détails sur ses produits infusés de FPGA, mais l’approche de la société pour connecter le silicium FPGA Xilinx à sa puce sera probablement un peu plus sophistiquée. Alors qu’Intel a tiré parti des voies PCIe standard et de son interconnexion QPI pour connecter sa puce FPGA au processeur, les brevets récents d’AMD indiquent qu’il travaille sur un port d’accélérateur qui accepterait plusieurs options de conditionnement.

Ces options incluent la technologie de puce d’empilement 3D, similaire à celle qu’elle utilise actuellement dans ses processeurs Milan-X pour connecter des puces SRAM, pour fusionner une puce FPGA au-dessus de la matrice d’E/S (IOD) des processeurs. Cette technique d’empilement de puces offrirait des avantages en termes de performances, de puissance et de débit de mémoire, mais comme nous le voyons avec les puces existantes d’AMD qui utilisent l’empilement 3D, elle peut également présenter des problèmes thermiques qui entravent les performances si le chiplet est placé à proximité des matrices de calcul. L’option d’AMD de placer un accélérateur au sommet de la matrice d’E/S est très logique car elle aiderait à relever les défis thermiques, permettant ainsi à AMD d’extraire plus de performances des puces CPU voisines (CCD).

AMD a également d’autres options. En définissant un port d’accélérateur, l’entreprise peut accueillir des puces empilées au-dessus d’autres matrices ou simplement les disposer dans des implémentations 2.5D standard qui utilisent une puce d’accélérateur discrète au lieu d’une puce CPU (voir les schémas ci-dessus). De plus, AMD a la possibilité d’utiliser d’autres types d’accélérateurs, tels que les GPU, les ASIC ou les DSP. Cela offre une pléthore d’options pour les futurs produits propriétaires d’AMD et pourrait également permettre aux clients de mélanger et d’associer ces différents chiplets dans des processeurs personnalisés qu’AMD conçoit pour son activité semi-personnalisée.

Ce type de technologie fondamentale sera sûrement utile alors que la vague de personnalisation se poursuit dans le centre de données, comme en témoignent les processeurs EPYC Bergamo à 128 cœurs récemment annoncés par AMD, qui sont livrés avec un nouveau type de cœur «Zen 4c» optimisé pour applications cloud natives.

AMD utilise déjà ses GPU et CPU de centre de données pour traiter les charges de travail de l’IA, les premiers gérant généralement la tâche gourmande en calcul de la formation d’un modèle d’IA. AMD utilisera les moteurs Xilinx FPGA AI principalement pour l’inférence, qui utilise le modèle AI pré-formé pour exécuter une certaine fonction.

Victor Peng, président d’AMD de son groupe Adaptive and Embedded Computing, a déclaré lors de l’appel aux résultats de l’entreprise que le moteur d’IA que l’entreprise intégrera dans ses processeurs est déjà utilisé dans la reconnaissance d’images et « toutes sortes » d’applications d’inférence dans les applications embarquées et les périphériques de périphérie. , comme les voitures. Peng a noté que l’architecture est évolutive, ce qui en fait un bon choix pour les processeurs de l’entreprise.

Les charges de travail d’inférence ne nécessitent pas autant de puissance de calcul et sont bien plus répandues que la formation dans les déploiements de centres de données. En tant que telles, les charges de travail d’inférence sont déployées en masse sur de vastes batteries de serveurs, Nvidia créant des GPU d’inférence à faible puissance, comme le T4, et Intel s’appuyant sur l’accélération de l’IA assistée par matériel dans ses puces Xeon pour traiter ces charges de travail.

La décision d’AMD de cibler ces charges de travail avec un silicium différencié pourrait donner à l’entreprise une longueur d’avance sur Nvidia et Intel dans certains déploiements de centres de données. Pourtant, comme toujours, le logiciel sera la clé. Le PDG d’AMD, Lisa Su, et Peng ont réitéré que la société tirerait parti de l’expertise logicielle de Xilinx pour optimiser la pile logicielle. vous en saurez plus à ce sujet lors de la journée des analystes financiers, mais nous allons certainement nous pencher sur l’IA, à la fois sur l’inférence et sur la formation. »

La journée des analystes financiers d’AMD aura lieu le 9 juin 2022, et nous en apprendrons certainement plus sur les nouveaux processeurs infusés d’IA à ce moment-là.

Source-138