美光推第二代HBM3記憶體 下單台積電

在各家業者搶攻AI市場之際,美光也不落人後,近日推出第二代HBM3 DRAM記憶體,不僅記憶體容量更大且運算速度更快,可望滿足大規模語言模型(LLM)的運算需求。

業界人士透露,因應人工智慧及生成式AI趨勢,美光將在台投入HBM3 Gen2先進封裝研發及製造,已積極與台積電密切合作,未來將在台加速量產並交貨給客戶NVIDIA。

美光表示第二代HBM3 DRAM記憶體的樣品已在近日出貨給少數客戶。研究機構TIRIAS Research估計若客戶端測試順利,內建美光第二代HBM3 DRAM記憶體的CPU及GPU最快將在今年底或明年初問世。

回顧2013年美光首度推出HBM記憶體至今已過10年,這段期間雲端市場快速起飛,不斷提高資料中心的運算需求。生成式AI問世以來,大規模語言模型的運算需求快速擴大,逐漸超越記憶體升級速度。

美光雖然落後其他同業1年左右才推出HBM3 DRAM記憶體,但這次可望靠第二代產品扳回一城。第二代HBM3 DRAM記憶體不僅容量擴大50%,性能也是上一代的2.5倍,運算速度也提升50%,有助縮短大規模語言模型的訓練時間。

美光上一代HBM3 DRAM記憶體已經廣泛應用在眾家晶片產品,包括超微、英特爾的CPU晶片,以及超微、英特爾、輝達的GPU晶片。超微針對AI市場最新推出的MI300X GPU晶片就是採用美光上一代HBM3 DRAM記憶體。

更多工商時報報導
核四剩餘空地 火力電廠列選項
大成大手筆 大陸蚌埠建新廠
15檔投顧點將 拚金牛甩尾