首頁 企業 Supermicro 擴展 A100 GPU 容量

Supermicro 擴展 A100 GPU 容量

by 亞當·阿姆斯特朗
美超微 NIDIA A100

今天,在 NVIDIA 在其年度 GTC 活動上發布了幾項與 GPU 相關的公告之後,Supermicro 做了它最擅長的事情,宣布對即將上市的最新創新產品提供硬件支持。 在這種情況下,Supermicro 宣布擴展其新的 4U 服務器以支持多達八個 NVIDIA HGX A100 GPU。 該公司還有一個 2U 服務器,最多支持四個 A100 GPU。

今天,在 NVIDIA 在其年度 GTC 活動上發布了幾項與 GPU 相關的公告之後,Supermicro 做了它最擅長的事情,宣布對即將上市的最新創新產品提供硬件支持。 在這種情況下,Supermicro 宣布擴展其新的 4U 服務器以支持多達八個 NVIDIA HGX A100 GPU。 該公司還有一個 2U 服務器,最多支持四個 A100 GPU。

美超微 NIDIA A100

用於 GPU 系統的 Supermicro 服務器配備 NVIDIA HGX A100 GPU,運行範圍包括 1U、2U、4U 和 10U 機架式 GPU 系統。 這些解決方案從邊緣到雲端運行,由 AMD EPYC(霄龍)或英特爾至強處理器提供支持。 據該公司稱,1U GPU 系統包含多達四個帶 NVLink 的 NVIDIA GPU,包括 NEBS Level 3 認證、5G/Edge-ready SYS-1029GQ。 Supermicro 的 2U GPU 系統,例如 SYS-2029GP-TR,可以在一個系統中支持多達六個具有雙 PCI-E Root 複合體功能的 NVIDIA V100 GPU。 最後,10U GPU 服務器,如 SYS-9029GP-TNVRT,支持 16 個 V100 SXM3 GPU 擴展到具有內置 AI 加速功能的雙英特爾至強可擴展處理器。

對於新服務器,美超微利用先進的熱設計、定制散熱器和可選的液體冷卻來配備 NVIDIA HGX A100 4-GPU 8-GPU 底板,以及支持八個 NVIDIA A4 PCI-E GPU 的新 100U 服務器。 新服務器利用該公司的高級 I/O 模塊 (AIOM) 外形,以提高網絡通信的靈活性。 AIOM 與 PCIe gen 4 存儲和網絡設備配合使用,這些設備支持 NVIDIA GPUDirect RDMA 和 GPUDirect Storage with NVME over Fabrics (NVMe-oF) on NVIDIA Mellanox InfiniBand。 以上所有旨在消除進入所有 GPU 的瓶頸。

首先,2U 系統通過散熱片設計最多可容納 4 個 NVIDIA GPU。 該系統通過 NVIDIA NVLink、高達 8TB 的 DDR4 3200Mhz 系統內存、五個支持 GPUDirect RDMA 的 PCI-E 4.0 I/O 插槽以及允許四個具有 GPUDirect 存儲功能的熱插拔 NVMe 實現高 GPU 點對點通信。 在 2U 系統中令人印象深刻。

在更大的系統上,4U 服務器擁有 NVIDIA HGX A100 8-GPU 底板、多達六個 NVMe U.2 和兩個 NVMe M.2,以及十個 PCI-E 4.0 x16 插槽。 該系統利用了上述 AIOM、NVIDIA NVLink 和 NVSwitch 技術。 這個大傢伙的用例是大規模深度學習訓練、研究或國家實驗室的神經網絡模型應用、超級計算集群和 HPC 雲服務。

為了獲得最大的 GPU 密度,Supermicro 還擁有一個 8U SuperBlade 外殼。 該服務器最多可支持 20 個節點和 40 個 GPU,每個節點兩個單寬 GPU,或每個節點一個 NVIDIA Tensor Core A100 PCI-E GPU。 在一個 20U 佔用空間中安裝多達 100 個 NVIDIA A8 實際上可以節省成本,因為只有 8U 需要供電或為機架中的其他設備留出空間。 這款 SuperBlade 提供 100% 無阻塞 HDR 200Gb/s InfiniBand 網絡基礎設施,以加速深度學習並實現實時分析和決策制定。

超微

參與 StorageReview

電子報 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | Facebook | RSS訂閱