CSP強化ASIC AI伺服器發展 兩台廠可望受惠
AI運算需求快速增長,去年採用輝達NVIDIA的GPU加速器解決方案,占AI伺服器市場半壁江山後,今年大型CSP(雲端服務供應商)則是進一步積極發展特用晶片(ASIC)AI伺服器,以強化運算叢集效能並降低對單一供應商的依賴。
台廠中,廣達及緯穎皆可望因此直接受惠,在美系大型CSP客戶端加碼投入推出自家ASIC的AI專案下,估將能為兩業者持續挹注AI伺服器業務動能。兩台廠亦已正加速擴展或落地在美產線,以因應這一波川普2.0關稅政策帶來的產地移轉效應。
依DIGITIMES調查,2024年以NVIDIA GPU平台為主的AI伺服器,占整體高階AI加速器出貨量比重約達54.3%,但其售價昂貴且有過度依賴單一供應商風險,因此CSP大廠皆已展開ASIC伺服器研發,領先廠商更進入應用階段,並藉此發揮運算叢集的最大效能。
Google ASIC伺服器因發展較早,相關解決方案最為成熟。除其TPU加速器運算力表現不俗外,Google同時擁有TPU POD大型運算叢集解決方案,因此為四大CSP當中,對於NVIDIA依賴最低的業者。
AWS於2024年首度推出具特定加速器互連技術的高密度機型解決方案,預估未來對於自家ASIC伺服器採購比重將上升。Meta和微軟(Microsoft)現階段皆較依賴NVIDIA方案,然近年同樣推出自家ASIC伺服器,雖整體表現不如領先業者,但也宣誓其發展ASIC方案的決心。
更多中時新聞網報導
軍公教放假啦!勞動節擬改列國定假日 再送3天帶薪假 相關規定1次看
快訊》全面貿易戰擔憂緩解 道指飆漲500點 台積電ADR強彈3%
股市長期下跌 60歲以上慘淪「海嘯第一排」 悲劇原因曝光