lundi, décembre 23, 2024

Webinaire sur le centre de données Intel et l’IA : feuille de route, nouvelles puces et démos

Rafraîchir

Rivera a remercié le public d’avoir rejoint le webinaire et a également partagé un résumé des principales annonces.

En résumé, Intel a annoncé que Sierra Forest, son Xeon d’efficacité de première génération, sera doté d’un nombre incroyable de 144 cœurs, offrant ainsi une meilleure densité de cœur que les puces concurrentes EPYC Bergamo à 128 cœurs d’AMD. La société a également taquiné la puce dans une démo. Intel a également révélé les premiers détails de Clearwater Forest, c’est le Xeon d’efficacité de deuxième génération qui fera ses débuts en 2025. Intel a sauté son nœud de processus 20A pour le 18A plus performant pour cette nouvelle puce, ce qui en dit long sur sa foi dans la santé de son futur nœud.

Intel a également présenté plusieurs démos, y compris des benchmarks d’IA face à face avec EPYC Genoa d’AMD qui montrent un avantage de performance 4X pour Xeon dans un face à face de deux puces à 48 cœurs, et une référence de débit de mémoire qui a montré le prochain- gen Granite Rapids Xeon offrant une bande passante incroyable de 1,5 To/s dans un serveur à double socket.

Il s’agit d’un événement destiné aux investisseurs. La société va donc maintenant organiser une séance de questions-réponses axée sur l’aspect financier de la présentation. Nous ne nous concentrerons pas sur la section Q et R ici à moins que les réponses ne soient particulièrement pertinentes pour le matériel qui est notre point fort. Si vous êtes plus intéressé par le côté financier de la conversation, vous pouvez voir le webinaire ici.

(Crédit image : Intel)

Lavender a également décrit les efforts de l’entreprise pour fournir une échelle et accélérer le développement via Intel Developer Cloud. Intel a multiplié par 4 le nombre d’utilisateurs depuis l’annonce du programme en 2021. Et avec cela, il a passé le relais à Sandra.

DCAI

(Crédit image : Intel)

Intel a lancé SYCLomatic pour migrer automatiquement le code CUDA vers SYCL.

DCAI

(Crédit image : Intel)

Les efforts d’Intel avec OneAPI se poursuivent, avec 6,2 millions de développeurs actifs utilisant les outils Intel.

DCAI

(Crédit image : Intel)

Intel vise une approche ouverte multi-fournisseurs pour fournir une alternative au CUDA de Nvidia.

DCAI

(Crédit image : Intel)

DCAI

(Crédit image : Intel)

Intel travaille également à la création d’un écosystème logiciel pour l’IA qui rivalise avec CUDA de Nvidia. Cela inclut également l’adoption d’une approche de bout en bout qui inclut des mécanismes de silicium, de logiciels, de sécurité, de confidentialité et de confiance à chaque point de la pile.

DCAI

(Crédit image : Intel)

Greg Lavendar d’Intel, SVP et CTO chez Intel, a rejoint le webcast pour discuter de la démocratisation de l’IA.

DCAI

(Crédit image : Intel)

Rivera a vanté l’efficacité d’échelle de 97 % d’Intel dans un benchmark de cluster.

DCAI

(Crédit image : Intel)

Les processeurs conviennent également aux modèles d’inférence plus petits, mais les accélérateurs discrets sont importants pour les modèles plus grands. Intel utilise ses GPU Gaudi et Ponte Vecchio pour adresser ce marché. Hugging Face a récemment déclaré que Gaudi lui avait donné 3 fois les performances de la bibliothèque Hugging Face Transformers.

DCAI

(Crédit image : Intel)

Intel travaille avec des fournisseurs de contenu pour effectuer des charges de travail d’IA sur des flux vidéo, et le calcul basé sur l’IA peut accélérer, compresser et chiffrer les données se déplaçant sur le réseau, le tout sur un seul processeur Sapphire Rapids.

DCAI

(Crédit image : Intel)

Rivera a décrit les vastes efforts d’Intel dans le domaine de l’IA. Intel prévoit que les charges de travail d’IA continueront d’être exécutées principalement sur des processeurs, avec 60 % de tous les modèles, principalement les modèles de petite et moyenne taille, fonctionnant sur des processeurs. Pendant ce temps, les grands modèles représenteront environ 40 % des charges de travail et fonctionneront sur des GPU et d’autres accélérateurs personnalisés.

DCAI

(Crédit image : Intel)

Intel propose également une liste complète d’autres puces pour les charges de travail d’IA. Intel a souligné qu’il lancera 15 nouveaux FPGA cette année, un record pour son groupe FPGA. Nous n’avons pas encore entendu parler de victoires majeures avec les puces Gaudi, mais Intel continue de développer sa gamme et a un accélérateur de nouvelle génération sur la feuille de route. L’accélérateur Gaudi 2 AI est en cours d’expédition et Gaudi 3 a été enregistré.

DCAI

(Crédit image : Intel)

Rivera a maintenant annoncé la suite de Sierra Forest – Clearwater Forest. Intel n’a pas partagé beaucoup de détails au-delà de la sortie en 2025, mais a déclaré qu’il utiliserait le processus 18A pour la puce, et non le nœud de processus 20A qui arrive six mois plus tôt. Ce sera la première puce Xeon avec le processus 18A.

DCAI

(Crédit image : Intel)

Spelman est revenu pour nous montrer les 144 cœurs de la puce Sierra Forest fonctionnant dans une démo.

DCAI

(Crédit image : Intel)

La feuille de route e-core d’Intel commence avec le Sierra Forest à 144 cœurs, qui fournira 256 cœurs dans un seul serveur à double socket. Les 144 cœurs du Xeon Sierra Forest de cinquième génération l’emportent également sur l’EPYC Bergamo à 128 cœurs d’AMD en termes de nombre de cœurs, mais ne prennent probablement pas la tête du nombre de threads – les cœurs électroniques d’Intel pour le marché grand public sont à un seul thread, mais le La société n’a pas divulgué si les e-cores du centre de données prendront en charge l’hyperthreading. AMD a partagé que le Bergame à 128 cœurs est hyperthreadé, fournissant ainsi un total de 256 threads par socket.

Rivera dit qu’Intel a allumé le silicium et a fait démarrer un système d’exploitation en moins de 18 heures (un record de l’entreprise). Cette puce est le véhicule principal du nœud de processus « Intel 3 », le succès est donc primordial. Intel est suffisamment confiant pour avoir déjà échantillonné les puces à ses clients et fait une démonstration des 144 cœurs en action lors de l’événement. Intel cible d’abord les modèles e-core Xeon sur des types spécifiques de charges de travail optimisées pour le cloud, mais s’attend à ce qu’ils soient adoptés pour une gamme beaucoup plus large de cas d’utilisation une fois qu’ils seront sur le marché.

DCAI

(Crédit image : Intel)

Ici, nous pouvons voir la démo.

DCAI

(Crédit image : Intel)

Intel a fait la démonstration d’un Granite Rapids à double socket fournissant une bande passante de mémoire DDR5 bestiale de 1,5 To / s lors de son webinaire, une amélioration de la bande passante maximale de 80% par rapport à la mémoire de serveur existante. Pour la perspective, Granite Rapids fournit plus de débit que la superpuce CPU Grace de 960 Go/s de Nvidia qui est conçue spécifiquement pour la bande passante mémoire, et plus que Genoa à double socket d’AMD, qui a un pic théorique de 920 Go/s.

Intel a accompli cet exploit en utilisant la DRAM DDR5-8800 Multiplexer Combined Rank (MCR), un nouveau type de mémoire à bande passante optimisée qu’il a inventé. Intel a déjà introduit cette mémoire avec SK hynix.

Granite Rapids arrivera en 2024, suivant de près Sierra Forest. Intel fabriquera cette puce sur le processus « Intel 3 », qui est une version considérablement améliorée du processus « Intel 4 » qui manquait des bibliothèques haute densité nécessaires pour Xeon. Il s’agit du premier Xeon p-core sur « Intel 3 », et il comportera plus de cœurs qu’Emerald Rapids, une bande passante mémoire plus élevée de la mémoire DDR5-8800 et d’autres innovations d’E/S non spécifiées. Cette puce est actuellement en cours d’échantillonnage pour les clients.

DCAI

(Crédit image : Intel)

Rivera nous a montré la prochaine puce Emerald Rapids de la société. La sortie d’Emerald Rapids de nouvelle génération d’Intel est prévue pour le quatrième trimestre de cette année, ce qui est un délai réduit étant donné que Sapphire Rapids vient d’être lancé il y a quelques mois.

Intel affirme qu’il fournira des performances plus rapides, une meilleure efficacité énergétique et, plus important encore, plus de cœurs que son prédécesseur. Intel affirme avoir le silicium Emerald Rapids en interne et que la validation progresse comme prévu, le silicium atteignant ou dépassant ses objectifs de performances et de puissance.

DCAI

(Crédit image : Intel)

Sapphire Rapids d’Intel prend en charge sa technologie AMX boostant l’IA, qui utilise différents types de données et le traitement vectoriel pour améliorer les performances. Lisa Spelman a réalisé une démonstration montrant qu’un Sapphire Rapids à 48 cœurs bat un EPYC Genoa à 48 cœurs de 3,9 fois dans une large gamme de charges de travail d’IA.

DCAI

(Crédit image : Intel)

Intel a lancé ses Sapphire Rapids, avec plus de 450 conceptions gagnantes et plus de 200 conceptions expédiées par les meilleurs OEM. Intel revendique une amélioration de l’efficacité de 2,9 fois de génération en génération.

DCAI

(Crédit image : Intel)

Intel a divisé sa feuille de route Xeon en deux lignes, une avec des cœurs P et une avec des cœurs E, chacune ayant ses propres avantages. Les modèles P-Core (Performance Core) étant le processeur de centre de données Xeon traditionnel avec uniquement des cœurs qui offrent toutes les performances des architectures les plus rapides d’Intel. Ces puces sont conçues pour des performances optimales par cœur et par charge de travail AI. Ils sont également associés à des accélérateurs, comme nous le voyons avec Sapphire Rapids.

La gamme E-Core (Efficiency Core) se compose de puces avec seulement des cœurs d’efficacité plus petits, un peu comme nous le voyons sur les puces grand public d’Intel, qui évitent certaines fonctionnalités, comme AMX et AVX-512, pour offrir une densité accrue. Ces puces sont conçues pour une efficacité énergétique élevée, une densité de cœur et un débit total attrayants pour les hyperscalers. Les processeurs Xeon d’Intel n’auront pas de modèles avec à la fois des cœurs P et des cœurs E sur le même silicium, il s’agit donc de familles distinctes avec des cas d’utilisation distincts.

Les E-cores sont conçus pour combattre les concurrents d’Arm.

DCAI

(Crédit image : Intel)

Intel travaille au développement d’un large portefeuille de solutions logicielles pour compléter son portefeuille de puces.

DCAI

(Crédit image : Intel)

Rivera a expliqué qu’Intel regarde souvent à travers l’objectif des processeurs pour mesurer les revenus totaux de son centre de données, mais élargit maintenant sa portée pour inclure différents types de calcul, comme les GPU et les accélérateurs personnalisés.

DCAI

(Crédit image : Intel)

Sandra Rivera a pris la parole pour souligner qu’elle couvrira la nouvelle feuille de route des centres de données, le marché total adressable (TAM) pour l’activité des centres de données d’Intel, qu’elle évalue à 110 milliards de dollars, et les efforts d’Intel dans le domaine de l’IA.

DCAI

(Crédit image : Intel)

Source-138

- Advertisement -

Latest