產業分析-平行運算時代:AI伺服器與GPGPU共榮發展

圖為輝達(NVIDIA)晶片。圖/pixabay
圖為輝達(NVIDIA)晶片。圖/pixabay

伴隨擅長自然語言處理(Natural Language Processing,NLP)的「大型語言模型」(Large Language Model,LLM)與擅長影像處理(Image Processing)的「擴散模型」(Diffusion Model)邁向大規模商業化之際,AI伺服器及其重要運算核心-通用圖形處理器(General-Purpose Computing on Graphics Processing Unit,GPGPU)顯現擅於「平行運算」(Parallel Computing)的價值,成為人類社會依託技術發展再實現生產力提升的重要引擎。

■GPGPU三大供應商:

輝達、超微、英特爾

以往執行此類平行運算工作負載多加以仰賴中央處理器(CPU)完成,然而伴隨科學運算等領域發展,運算任務越趨複雜,在多重運算任務亟待指令拆分的趨勢下,GPGPU憑藉平行運算突出效能,已迅速彰顯在巨量資料(Big Data)爆炸性成長之際,可協同CPU加速完成AI模型訓練與推論的價值。

因此,輝達(NVIDIA)、超微(AMD)與英特爾(Intel)等三大供應商,無不加速演進GPGPU核心架構設計、硬體配置與封裝技術。此外,平行運算時代三大供應商亦突出「高速互聯技術」(High-Speed Interconnect)相連CPU與GPGPU間、GPGPU與GPGPU間的協同運算加速作用,藉以鞏固供應商自身產品生態系市占率。

廣告

未來在NVIDIA、AMD與Intel伺服器CPU與GPGPU產品線完善下,同一供應商CPU與GPGPU產品共同構成的封閉生態系能驅動的協同運算效能,將是AI模型訓練領域關注所在。

此外,若從AI伺服器供應鏈與生產模式來看,AI伺服器與過去雲端運算伺服器供應鏈生產模式相仿,可大致區分為短鏈代工模式(ODM Direct)與長鏈代工模式(OEM Mode)。

■短鏈與長鏈代工業摩拳擦掌

短鏈代工模式是以處理器供應商與AI伺服器代工廠(ODMs)等零組件與設備供應商(意即由處理器供應商與雲端服務供應商洽談合作),以及終端使用者(指的是雲端服務供應商)為供應鏈主要參與者,由ODMs出貨予終端使用者,終端設備平均售價較長鏈代工模式為低廉。

反觀長鏈代工模式,相較短鏈代工模式,則同樣由處理器供應商提供AI伺服器處理器(也就是處理器供應商與ODMs洽談合作),首先由AI伺服器品牌廠(OEMs)完成AI伺服器軟硬體架構設計,再委由ODMs執行組裝和製造環節,再由OEMs出貨予終端使用者(包括雲端服務供應商、金融機構與政府單位等)。

以供應鏈來看,基於AI伺服器客製化程度較雲端伺服器為高的特性,工業富聯、英業達、神達電腦、緯創資通、緯穎科技與廣達電腦等台灣伺服器代工廠(ODMs)再度發揮客製化核心能力,扮演AI伺服器供應鏈關鍵角色;而Dell、技嘉、HPE、聯想與Supermicro等伺服器品牌廠(OEMs)亦寄望以AI伺服器解決方案,作為後疫情時代全球伺服器市場再成長的重要動能。

更多工商時報報導
核四剩餘空地 火力電廠列選項
竹科銅鑼園區環差案 通過
倒數剩六天 內資拚作帳