美光HBM3E及SOCAMM出貨,攜手NVIDIA強化從資料中心到邊緣運算創新
【財訊快報/記者李純君報導】記憶體大廠美光科技(Nasdaq: MU)宣布成為全球首家且唯一同時出貨HBM3E及SOCAMM(小型壓縮附加記憶體模組)產品的記憶體廠商,這兩款產品專為資料中心AI伺服器設計。此舉也意味著,美光攜手NVIDIA實現從資料中心到邊緣運算的創新。美光與NVIDIA合作開發的SOCAMM是一款模組化LPDDR5X記憶體解決方案,專為支援NVIDIA GB300 Grace Blackwell Ultra超級晶片而設計。美光HBM3E 12H 36GB也針對NVIDIA HGXB300 NVL16和GB300 NVL72平台打造;而HBM3E 8H 24GB則應用於NVIDIA HGX B200和GB200 NVL72平台。美光HBM3E產品於NVIDIA Hopper和NVIDIA Blackwell系統中的全面性部署,突顯美光與NVIDIA的緊密合作,同時意味著,美光在AI領域的優勢角色。
在GTC 2025大會上,美光展示完整的AI記憶體與儲存裝置產品組合,全面支援從資料中心到邊緣裝置的AI應用,突顯美光與生態系夥伴之間的深度合作關係。美光的多元產品布局包括HBM3E 8H 24GB和HBM3E 12H 36GB、LPDDR5X SOCAMM、GDDR7和高容量DDR5 RDIMM和MRDIMM。此外,美光也供應資料中心SSD以及汽車和工業用產品組合,例如UFS4.1、NVMe SSD和LPDDR5X,瞄準邊緣運算應用的需求。
美光資深副總裁暨運算與網路事業部總經理Raj Narasimhan表示:「AI正持續推動運算領域的典範轉移,其中記憶體正是這項變革的核心。美光為NVIDIA Grace Blackwell平台AI訓練和推論應用帶來顯著的效能提升和節能效益,而HBM和低功耗記憶體解決方案則有助於提升GPU的運算能力,突破現有極限。」
美光也提到,自家的SOCAMM解決方案目前已進入量產階段,這款模組化SOCAMM解決方案能實現更快的資料處理速度與效能,以及更佳的電源效率維修便利性,該模組化記憶體解決方案,能夠滿足AI伺服器和資料密集型應用需求。這款全新SOCAMM解決方案能使資料中心在保持相同運算能力的同時,享有小體積、充裕頻寬、低功耗和強擴充能力都優勢。
此外,美光延續在AI領域的競爭優勢,其HBM3E 12H 36GB在相同立方體外形規格下,提供比HBM3E 8H 24GB高出50%的容量。此外,相較於競爭對手的HBM3E 8H 24GB產品,美光HBM3E12H 36GB的功耗降低20%,同時記憶體容量也高出50%。美光也計劃將推出HBM4以保持技術發展動能,進一步鞏固其在AI記憶體解決方案供應商中的領導地位。美光HBM4解決方案的效能預計將比HBM3E提升超過50%。