AWS和NVIDIA策略合作,首款超級晶片和雲端AI電腦將問世

【財訊快報/記者李純君報導】AWS和NVIDIA今日宣布策略合作,為生成式人工智慧提供新的超級運算基礎架構、軟體和服務。AWS將提供首款配備NVIDIA Grace Hopper超級晶片和UltraCluster可擴展性的雲端人工智慧超級電腦。在AWS re:Invent大會上,Amazon(NASDAQ:AMZN)旗下的Amazon Web Services(AWS)和NVIDIA(NASDAQ:NVDA)今天宣布擴大策略合作,兩家公司將匯集NVIDIA和AWS的技術,從配備下一代GPU、CPU和人工智慧軟體的NVIDIA最新多節點系統,到AWS Nitro System先進的虛擬化和安全性、Elastic Fabric Adapter(EFA)互連和UltraCluster可擴展性,均非常適合訓練基礎模型和建立生成式人工智慧應用。

這次擴大合作是基於長期的夥伴關係,此夥伴關係為早期機器學習(ML)先驅者們提供了發展最新技術所需的運算效能,推動了生成式人工智慧時代。首先,AWS將成為首家將具有全新多節點NVLink技術的NVIDIA GH200 Grace Hopper超級晶片引入雲端的雲端服務供應商。NVIDIA GH200 NVL32多節點平台透過NVIDIA NVLink和NVSwitch技術連接32個Grace Hopper超級晶片成為一個執行個體。該平台將在與Amazon的網路(EFA)連接的Amazon Elastic Compute Cloud(Amazon EC2)執行個體上提供。

此外,NVIDIA和AWS將合作在AWS上託管NVIDIA的人工智慧訓練即服務NVIDIA DGX Cloud。它將是第一個採用GH200 NVL32的DGX Cloud,為開發人員提供單一執行個體中最大的共享記憶體。而NVIDIA和AWS正合作進行Ceiba計畫,打造世界上最快的GPU驅動人工智慧超級電腦,這是一個採用GH200 NVL32和Amazon EFA互連的大規模系統,由AWS為NVIDIA研發團隊託管。這台首創的超級電腦配備16,384個NVIDIA GH200超級晶片,能夠處理的65 exaflops的人工智慧運算效能。

AWS將推出另外三個新的Amazon EC2執行個體,包括由NVIDIA H200 Tensor Core GPU驅動的P5e執行個體,適用於大規模和尖端的生成式人工智慧和高效能運算工作負載,以及分別由NVIDIA L4 GPU和NVIDIA L40S GPU驅動的G6和G6e執行個體,適用於人工智慧微調、推論、圖形和影片的工作負載等一系列廣泛應用。至於G6e執行個體適合使用NVIDIA Omniverse開發3D工作流程、數位孿生和其他應用程式,NVIDIA Omniverse是一個用於連接和建構由生成式人工智慧驅動的3D應用程式平台。

AWS執行長Adam Selipsky說:「從世界上第一個GPU雲端執行個體開始,AWS和NVIDIA的合作已超過13年。今天,我們繼續與NVIDIA一起創新,將下一代NVIDIA Grace Hopper超級晶片與AWS EFA強大網路、EC2 UltraClusters的超大規模叢集以及Nitro先進虛擬化功能相結合,使AWS成為運行GPU的最佳場所。」

NVIDIA創辦人暨執行長黃仁勳表示:「生成式人工智慧正在改變雲端工作負載,並將加速運算作為多樣化內容生成的基礎。在向每位客戶提供經濟高效、最先進生成式人工智慧的共同使命驅動下,NVIDIA和AWS在整個運算堆疊上開展合作,涵蓋人工智慧基礎設施、加速函示庫、基礎模型和生成式人工智慧服務。」