NVIDIA AI伺服器架構平台Blackwell問世,B100、B200與GB200晶片將量產

【財訊快報/記者李純君報導】NVIDIA在今日的Nvidia GTC大會上,揭露了自家AI伺服器的最新平台架構Blackwell,而此架構並獲得AWS、微軟、Meta、OpenAI、Dell、Google、甲骨文、Tesla與xAI等採用。且值得注意的是,基於Blackwell架構的AI晶片主要為B100與B200,以及加上Grace CPU的GB200。目前NVIDIA所揭露,新款AI伺服器的Blackwell架構,所包含的AI晶片,主要為B100與B200,以及加上Grace CPU的GB200。這三款晶片均在台積電以4奈米產出,B100預計在今年第四季產出,放量時間則會在明年上半年,至於B200和GB200則會在明年接續量產。

NVIDIA今天宣布NVIDIA Blackwell平台已經到來,為運算新時代提供動力,使世界各地的組織能夠在兆級參數大型語言模型上構建和運行即AI,而成本和能耗比其前身最低可達25倍。

Blackwell GPU架構具有六項用於加速運算的變革性技術,這將有助於在資料處理、工程模擬、電子設計自動化、電腦輔助藥物設計、量子運算和生成式AI方面實現突破,這些對NVIDIA都是新興產業機會。

NVIDIA創辦人暨執行長黃仁勳表示:「三十年來,我們一直在追求加速運算,目標是實現深度學習和AI等變革性突破。生成式AI是我們這個時代的決定性技術。Blackwell是推動這場新工業革命的引擎。NVIDIA將與世界上最具活力的公司合作,實現人工智慧對每個產業的承諾。」

Blackwell的幾項技術共同支援AI訓練和即時大型語言模型推理,模型可擴展至10兆個參數。且Blackwell架構GPU配備2080億個電晶體,採用台積電客製化4奈米製程製造,兩倍光罩尺寸GPU裸晶透過10 TB/s的晶片到晶片互連連接成單個、統一GPU。

此外,NVIDIA也介紹,NVIDIA GB200 Grace Blackwell超級晶片透過900GB/s超低功耗NVLink晶片到晶片互連技術將兩個NVIDIA B200 Tensor Core GPU與NVIDIA Grace CPU連接起來。