samedi, décembre 21, 2024

Micron dévoile le HBM4E : une avancée révolutionnaire en mémoire personnalisée pour GPU d’IA et d’autres applications.

Micron a récemment annoncé des avancées dans ses mémoires HBM4 et HBM4E, avec HBM4 prévu pour une production de masse en 2026. HBM4E offrira des taux de transfert supérieurs et des options de personnalisation du die de base, fabriquées par TSMC. Ces innovations visent à améliorer les performances pour des applications spécifiques. La production de HBM4 se poursuit avec des caractéristiques impressionnantes, tandis que les dispositifs HBM3E sont déjà en expansion pour les processeurs Nvidia.

Mise à jour de Micron sur HBM4 et HBM4E

Cette semaine, Micron a partagé des nouvelles intéressantes concernant ses programmes de mémoire HBM4 et HBM4E. La mémoire de nouvelle génération HBM4, qui dispose d’une interface impressionnante de 2048 bits, est en bonne voie pour la production de masse prévue en 2026. HBM4E suivra dans les années à venir, apportant des améliorations significatives.

Des innovations marquantes avec HBM4E

HBM4E promet non seulement des taux de transfert de données supérieurs à ceux de HBM4, mais introduira également une option de personnalisation du die de base, ce qui représente un tournant pour l’industrie. Cette personnalisation permettra à Micron de fournir des solutions adaptées aux besoins spécifiques de certains clients, augmentant ainsi les performances et les fonctionnalités.

Les dies logiques personnalisés seront fabriqués par TSMC, utilisant des processus avancés pour intégrer davantage de caches et de logiques, ce qui se traduira par des performances améliorées. Selon Sanjay Mehrotra, président et directeur général de Micron, cette approche innovante pourrait significativement renforcer la performance financière de l’entreprise.

Nous sommes impatients de découvrir les options de personnalisation que Micron proposera pour ses dies logiques HBM4E. Les possibilités incluent des caches optimisés, des protocoles d’interface sur mesure pour des applications spécifiques telles que l’IA et le HPC, des capacités de transfert mémoire améliorées, et bien plus encore. Cependant, il est important de noter que ces options sont encore à l’état spéculatif, et il reste à voir si une norme JEDEC soutiendra de telles personnalisations.

Micron a également indiqué que le développement des produits HBM4E est déjà avancé avec plusieurs clients, ce qui laisse présager une adoption variée des dies de base dans différentes configurations. Cela représente un pas important vers des solutions de mémoire personnalisées, particulièrement pour les applications nécessitant une bande passante élevée.

En parallèle, Micron continue de produire sa mémoire HBM4, qui utilise la technologie de processus de 1β offrant une bande passante théorique de 1,64 To/s par empilement, avec une production en grande quantité prévue pour 2026. Cette période coïncidera avec le lancement des GPU de Nvidia et AMD pour des applications d’IA et de HPC.

Enfin, Micron a annoncé que les expéditions de ses dispositifs HBM3E 8-Hi pour les processeurs Blackwell de Nvidia sont déjà en pleine expansion, avec des retours très positifs de la part des clients sur les performances et l’efficacité énergétique de ces produits. Les empilements HBM3E 12-Hi, qui offrent une capacité mémoire supérieure, devraient également être intégrés dans les nouveaux accélérateurs d’AMD et les GPU de Nvidia.

- Advertisement -

Latest