華碩 SC24秀全系列AI伺服器陣容
品牌廠華碩(2357)近日於在美國舉辦的SC24超級運算大會中,端出含括新一代基礎設施解決方案、加速人工智慧發展的液冷技術,與搭載AMD/Intel和支援NVIDIA等不同處理器平台的全系列伺服器產品陣容,協助新創公司、研究機構、大型企業或政府機關等不同客戶,因應HPC高速運算及AI驅動之數位轉型需求並提升業務敏捷性。
透過持續創新、深度整合旗下伺服器產品、冷卻技術與軟體開發服務,華碩的ASUS AI POD可經由配置輝達NVIDIA GB200 Grace Blackwell超級晶片,與第五代NVIDIA NVLink技術,及液冷對液冷/液冷對氣冷等多重冷卻選項,以最大限度強化AI運算效能,增強兆級參數LLM(大型語言模型)訓練,實現即時推理。
另相容NVIDIA MGX架構的全新AI伺服器產品ESC 8000A-E13P,可快速大規模部署,為各種應用提供高密度GPU,支援最多8張雙插槽卡、每張功率600瓦,並搭載5個適用高頻寬PCIe NIC/DPU的PCIe 5.0插槽,以最佳化的配置增強東西向流量(East-West traffic)及系統效能的升級。
因應生成式AI下的基礎模型訓練及推論需求,華碩也發表了配置AMD EPYC 9005處理器和Instinct MI325X加速器的ESC A8A-E12U,以及支援Intel Gaudi 3加速器的ESC I8-E11。此外,針對HPC需求推出的RS920Q-E12和 RS720Q-E12,則配置了Intel Xeon 6處理器,能執行繁重的工作負載和應用程式。
為推助傳統儲存伺服器架構在AI、HPC快速發展的新局下升級轉型,華碩與Weka和其他產業先驅密切合作,推出具高度可擴展的軟體定義儲存(SDS)解決方案新品如RS501A-E12-RS12U。
而華碩與友崴聯手打造全台最大的超算中心甫正式啟用,近日即入列全球TOP500超級電腦,及Green500最新公布的11月榜單中,分別名列第31和44位。該超算中心合作案共採用了128台的NVIDIA HGX H100伺服器,搭配共計1,024張的Hopper平台AI GPU,對照配備相同GPU與高速網卡規格的資料中心(NVIDIA H100 SXM5 80GB GPUs與InfiniBand NDR400 connectivity),華碩調校優化整體運算效能提升66%。該案並在短短三個月內就建置完成,不僅彰顯了華碩在全球超級電腦領域的優勢地位,更為AI創新挹注強健動能。
更多中時新聞網報導
保險免遺產稅有2大武器 為何儲蓄險不適用?苦主3大主張輸給4大判決理由
勸女友買ETF卻遭提分手 定期定額56 50越聽越不耐煩 網:該慶幸 別像我結婚後更慘
網憂台海危機...想等房價崩盤 專家:只有一類人占到優勢