Les fabricants de mémoire augmentent leur capacité de production de mémoire à large bande passante (HBM) en raison de l’augmentation rapide des commandes des fournisseurs de services cloud (CSP) et des développeurs de processeurs pour l’intelligence artificielle (IA) et le calcul haute performance (HPC), tels que Nvidia, selon TrendForce. La société d’études de marché estime que les livraisons annuelles de bits de HBM augmenteront de 105 % d’ici 2024.
TrendForce affirme que les principaux producteurs de DRAM tels que Micron, Samsung et SK Hynix ont fourni suffisamment de mémoire HBM en 2022 pour que les prix restent prévisibles. Pourtant, une augmentation rapide de la demande de serveurs d’IA en 2023 a conduit les clients à passer des commandes anticipées, repoussant les limites de production. TrendForce, la société d’études de marché, prévoit désormais que l’expansion agressive des fournisseurs fera passer le taux de suffisance HBM de -2,4 % en 2022 à 0,6 % en 2024.
En plus de la demande croissante de HBM en général, les analystes de TrendForce notent également la transition en cours de la demande de HBM2e (utilisé sur les cartes H100 de Nvidia, Instinct MI250X d’AMD et les produits Sapphire Rapids HBM et Ponte Vecchio d’Intel) vers HBM3 (utilisé sur les produits H100 SXM de Nvidia modules, les prochains APU et GPU de la série Instinct MI300 d’AMD). avec un prix de vente moyen (ASP) plus élevé, devrait augmenter considérablement les revenus de HBM au cours de l’année à venir.
Mais pour répondre à la demande de HBM, les fabricants de mémoire doivent augmenter la production de HBM. Ce n’est pas particulièrement facile car en plus de fabriquer plus de dispositifs de mémoire, les producteurs de DRAM doivent assembler ces dispositifs en piles 8-Hi voire 12-Hi, ce qui nécessite un équipement spécialisé. Pour satisfaire la demande de mémoire HBM2, HBM2E et HBM3, les fabricants de DRAM doivent se procurer des outils supplémentaires pour étendre leurs lignes de production HBM et le délai de livraison et de test pour eux est compris entre 9 et 12 mois, donc une augmentation tangible de la production HBM est maintenant attendue parfois dans T2 2024.
SK Hynix est en tête de la production de HBM3, la majeure partie de la production étant destinée à Nvidia, affirme TrendForce, tandis que Samsung produit principalement HBM2E pour d’autres développeurs de processeurs et CSP. Micron, qui ne fabrique pas HBM3, ne peut fournir que HBM2E (et Intel utilise une telle mémoire sur son processeur Sapphire Rapids HBM, selon les rapports) alors qu’il se prépare à accélérer la production de HBM3E (que la société appelle HBM3 Gen2) au début de 2024 Pas plus tard qu’hier, Nvidia a présenté la première plate-forme AI et HPC basée sur HBM3E de l’industrie et étant donné que la demande pour les produits Nvidia est écrasante, il est probable que Micron capitalisera sur la nouvelle plate-forme compatible GH200 Grace Hopper HBM3E.
Pendant ce temps, TrendForce prévoit qu’en 2023 ~ 2024, Samsung et SK Hynix auront des parts de marché presque égales, représentant collectivement environ 95 %. En revanche, la part de Micron devrait se situer entre 3 % et 6 %.
TrendForce observe une baisse constante du prix de vente moyen des produits HBM chaque année. Pour stimuler la demande des clients et répondre à l’affaiblissement de la demande pour les types de HBM de génération précédente, les fournisseurs réduisent les prix des HBM2e et HBM2 en 2023. Bien que les stratégies de tarification pour 2024 restent indécises, il existe un potentiel de nouvelles baisses de prix pour les HBM2 et HBM2e en raison de l’augmentation de l’offre de HBM et les ambitions des fournisseurs d’accroître leur part de marché, selon TrendForce.
Néanmoins, les prix de HBM3 devraient rester stables, et avec son prix de vente moyen plus élevé par rapport à HBM2e et HBM2, il pourrait faire grimper les revenus de HBM à 8,9 milliards de dollars en 2024, marquant une croissance de 127 % en glissement annuel.