【Yahoo來選股】 記憶體過剩情況能消解? AI帶動HBM3與HBM3e成2024年市場主流
記憶體市場聚焦在AI應用的高階記憶體,期盼能緩解記憶體供過於求問題。消息指出三星、SK海力士等國外記憶體大廠持續減產行動,調整NAND型快閃記憶體等產品產能。不過據外媒報導,分析師認為AI應用需求的高階晶片在記憶體市場所占比例極小,無法完全消化供應過剩問題,其他非AI需求較差恐仍止不住記憶體跌價。
TrendForce調查指出2023年高頻寬記憶體HBM市場主流為HBM2e,包含NVIDIA A100/A800、AMD MI200以及多數CSPs自研加速晶片皆以此規格設計。
同時為因應AI加速器晶片需求演進,各原廠再於2024年推出新產品HBM3e,預期HBM3與HBM3e將成為明年市場主流。
HBM各世代差異主要以速度做細分。除了市場已知的HBM2e外,在進入HBM3世代時,產業出現較為混亂的名稱。TrendForce特別表示,目前市場所稱的HBM3實際需細分為兩種速度討論,其一,5.6~6.4Gbps的HBM3;其二,8Gbps的HBM3e,別名HBM3P、HBM3A、HBM3+、HBM3 Gen2皆屬此類。
目前三大原廠HBM發展進度如下,兩大韓廠SK海力士(SK hynix)、三星(Samsung)先從HBM3開發,代表產品為NVIDIA H100/H800以及AMD的MI300系列,兩大韓廠再預計於2024年第一季送樣HBM3e;美系原廠美光(Micron)則選擇跳過HBM3,直接開發HBM3e。
HBM3e將由24Gb mono die堆疊,在8層(8Hi)的基礎下,單顆HBM3e容量將一口氣提升至24GB,此將導入在2025年NVIDIA推出的GB100上,故三大原廠預計要在2024年第一季推出HBM3e樣品,以期在明年下半年進入量產。
觀察AI伺服器(AI server)所用的加速晶片,其中輝達(NVIDIA)Server GPU市占最高。而單張約2~2.5萬美元的H100/H800,一台AI伺服器建議配置約為8張卡,總體擁有成本也因此大幅提升。
TrendForce觀察,各雲端服務業者(CSP)仍會向NVIDIA或超微(AMD)採購Server GPU,也同步進行自研AI加速晶片的計畫。
除了已行之有年的Google TPU與AWS Trainium和Inferentia外,Google與AWS正著手研發次世代自研AI加速晶片,將採用HBM3或HBM3e。TrendForce表示,其他包含北美及中國的雲端服務業者亦有相關驗證進行中,預期未來AI加速晶片版圖競爭會更加激烈。
延伸閱讀
【Yahoo來選股】友達法說將登場 報價續強、面板雙虎股價帶量上漲
【Yahoo來選股】減產概念股!記憶體族群築底反彈 南亞科強漲逾5%
Yahoo財經特派記者 吳珍儀:身處數位原生世代,曾任職網路新聞編譯,現階段主攻科技新聞,期許將複雜資訊以更年輕、貼近生活的樣貌呈現給讀者。