Au cours de l’année dernière, NVIDIA a annoncé , son tout premier processeur de centre de données. À l’époque, la société ne partageait que quelques bribes d’informations sur la puce, notant, par exemple, qu’elle l’utiliserait pour fournir des vitesses de transfert de données allant jusqu’à 900 Go/s entre les composants. Avance rapide jusqu’à la conférence sur la technologie GPU 2022, qui a débuté mardi matin. Lors de l’événement, le PDG Jensen Huang a dévoilé le Grace CPU Superchip, le premier CPU discret que NVIDIA prévoit de lancer dans le cadre de sa gamme Grace.
Construit sur ARM récemment introduit, le Grace CPU Superchip est en fait deux processeurs Grace connectés via la technologie d’interconnexion NVLink susmentionnée de la société. Il intègre un nombre impressionnant de 144 cœurs ARM dans un seul socket et consomme environ 500 watts de puissance. La mémoire LPDDR5x ultra-rapide intégrée à la puce permet des vitesses de bande passante allant jusqu’à 1 téraoctet par seconde.
Bien qu’il s’agisse de puces très différentes, un moyen utile de conceptualiser le nouveau silicium de NVIDIA est de penser à celui récemment annoncé par Apple. Dans les termes les plus simples, le M1 Ultra est composé de deux puces M1 Max connectées via la technologie UltraFusion d’Apple qui porte bien son nom.
Lorsque NVIDIA commencera à expédier la Grace CPU Superchip à des clients comme le Department of Energy au cours du premier semestre 2023, elle leur offrira la possibilité de la configurer soit comme un système CPU autonome, soit dans le cadre d’un serveur avec jusqu’à huit Hopper-based. GPU (plus d’informations sur ceux-ci dans un instant). La société affirme que sa nouvelle puce est deux fois plus rapide que les serveurs traditionnels. NVIDIA estime qu’il obtiendra un score d’environ 740 points dans les benchmarks SPECrate®2017_int_base, le plaçant dans l’échelon supérieur des processeurs de centre de données.
Aux côtés du Grace CPU Superchip, NVIDIA a annoncé son très attendu . Nommé d’après un informaticien pionnier, il est le successeur du courant de l’entreprise (vous savez, celui qui alimente tous les GPU de la série RTX 30 impossibles à trouver de l’entreprise). Avant de vous exciter, sachez que NVIDIA n’a annoncé aucun GPU grand public au GTC. Au lieu de cela, nous avons pu voir le . Il s’agit d’un mastodonte de 80 milliards de transistors construit à l’aide du processus 4 nm de pointe de TSMC. Au cœur du H100 se trouve le nouveau Transformer Engine de NVIDIA, qui, selon la société, lui permet d’offrir des performances inégalées lorsqu’il a besoin de calculer des modèles de transformateurs. Au cours des dernières années, les modèles de transformateurs sont devenus très populaires auprès des scientifiques de l’IA travaillant avec des systèmes tels que GPT-3 et AlphaFold. NVIDIA affirme que le H100 peut réduire le temps nécessaire pour entraîner de grands modèles à quelques jours, voire à quelques heures. Le H100 sera disponible plus tard cette année.
Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation.