AI加速晶片驅動,HBM3與HBM3e將成為2024年記憶體市場主流

【財訊快報/記者李純君報導】根據TrendForce調查顯示,2023年HBM(High Bandwidth Memory)市場主流為HBM2e,包含NVIDIA A100/A800、AMD MI200以及多數CSPs自研加速晶片皆以此規格設計。同時,為因應AI加速器晶片需求演進,各原廠再於2024年推出新產品HBM3e,預期HBM3與HBM3e將成為明年市場主流。HBM各世代差異,主要以速度做細分。除了市場已知的HBM2e外,在進入HBM3世代時,產業出現較為混亂的名稱。目前市場所稱的HBM3實際需細分為兩種速度討論,其一,5.6~6.4Gbps的HBM3;其二,8Gbps的HBM3e,別名HBM3P、HBM3A、HBM3+、HBM3 Gen2皆屬此類。

目前三大原廠HBM發展進度如下,兩大韓廠SK海力士(SK hynix)、三星(Samsung)先從HBM3開發,代表產品為NVIDIA H100/H800以及AMD的MI300系列,兩大韓廠再預計於2024年第一季送樣HBM3e;美系原廠美光(Micron)則選擇跳過HBM3,直接開發HBM3e。

HBM3e將由24Gb mono die堆疊,在8層(8Hi)的基礎下,單顆HBM3e容量將一口氣提升至24GB,此將導入在2025年NVIDIA推出的GB100上,故三大原廠預計要在2024年第一季推出HBM3e樣品,以期在明年下半年進入量產。