《科技》AWS牽手NVIDIA 助攻生成式AI創新

【時報記者任珮云台北報導】亞馬遜(Amazon)旗下Amazon Web Services(AWS)與NVIDIA於AWS re:Invent全球盛會上宣布擴大策略合作,將聯手推出先進基礎設施、軟體及服務,推動客戶在生成式AI(Generative AI)的創新。

NVIDIA與AWS將挹注NVIDIA與AWS技術的精華,包含NVIDIA新一代GPU、CPU與AI軟體的最新多節點系統,以及AWS的Nitro System先進虛擬化與安全平台、Elastic Fabric Adapter(EFA)互連介面和UltraCluster擴充服務,以提供理想的環境來訓練基礎模型與打造生成式AI應用。

雙方保持長久的合作關係,合力推動生成式AI時代。此次擴大合作為使用機器學習(ML)的先驅們提供所需的運算效能,協助發展最尖端的技術。

此次雙方合作將大幅加速所有產業應用生成式AI的發展,合作內容包括:

一、AWS成為第一家將配備多節點NVLink技術的NVIDIA GH200 Grace Hopper Superchip超級晶片導入雲端環境的雲端服務供應商。NVIDIA GH200 NVL32多節點平台運用NVIDIA NVLink與NVSwitch技術連結32個Grace Hopper Superchip超級晶片,組合成一個執行個體。此平台將以Amazon Elastic Compute Cloud(Amazon EC2)執行個體的型態上線營運,連結Amazon的強大網路(EFA),加上先進虛擬化(AWS Nitro System)與超大規模叢集(Amazon EC2 UltraClusters)的支援,讓共同客戶能擴充至數千顆GH200超級晶片的規模。

廣告

二、NVIDIA與AWS將聯手在AWS上推出NVIDIA DGX Cloud這項AI訓練即服務(AI-training-as-a-service)方案。此方案將是首個配置GH200 NVL32的DGX Cloud方案,為開發者提供單一執行個體中最多的共用記憶體。AWS雲端上運行的DGX Cloud將可加速含有超過1兆參數的尖端生成式AI與大型語言模型的訓練。

三、NVIDIA與AWS正合作推動Project Ceiba,聯手設計全球最快的GPU驅動AI超級電腦,配備GH200 NVL32與Amazon EFA互連技術的大規模系統由AWS代管,為NVIDIA研發團隊提供服務。這部開創先河的超級電腦配置16,384顆NVIDIA GH200超級晶片,能處理65 exaflops速度等級的AI運算,將推動NVIDIA進行全新生成式AI的創新。

四、AWS將再推出三款Amazon EC2執行個體:P5e執行個體配置NVIDIA H200 Tensor Core GPU,瞄準大規模與尖端生成式AI及HPC高效能運算工作負載;以及分別配置NVIDIA L4 GPU與NVIDIA L40S GPU的G6 與G6e執行個體,能運行包括AI微調、推論、繪圖、以及影片工作負載等廣泛應用。G6e執行個體特別適合用來開發3D工作流程、數位分身、以及其他使用NVIDIA Omniverse的應用,用來連結與打造各種生成式AI的3D應用。