首页 企业 Supermicro NVIDIA GH200 Grace Hopper 服务器现已发货

Supermicro NVIDIA GH200 Grace Hopper 服务器现已发货

by 莱尔·史密斯

Supermicro 推出了全面的新服务器产品组合,旨在为人工智能和高性能计算领域树立新标准。 这些服务器是业界首个 NVIDIA MGX 系统系列,围绕 NVIDIA GH200 Grace Hopper 超级芯片构建。 这些新产品旨在大幅提高人工智能工作负载性能,采用了尖端技术进步。

Supermicro 推出了全面的新服务器产品组合,旨在为人工智能和高性能计算领域树立新标准。 这些服务器是业界首个 NVIDIA MGX 系统系列,围绕 NVIDIA GH200 Grace Hopper 超级芯片构建。 这些新产品旨在大幅提高人工智能工作负载性能,采用了尖端技术进步。

超微 NVIDIA GH200

从整合 最新DPU网络 和通信技术,结合美超微用于高密度部署的先进液体冷却解决方案,这些服务器代表了可扩展和可定制计算解决方案的飞跃。

新的服务器型号包括以下内容:

ARS-111GL-NHR:这款风冷服务器是高密度 1U GPU 系统,配备集成 NVIDIA H100 GPU 和 NVIDIA Grace Hopper Superchip。 该服务器具有 900GB/s NVLink Chip-2-Chip 互连和高达 576GB 的相干内存,专为高性能计算、AI/深度学习和大型语言模型等要求苛刻的应用而设计。 该系统还包括 3 个 PCIe 5.0 x16 插槽和 XNUMX 个热插拔重型风扇,以实现最佳热管理。

ARS-111GL-NHR-LCC:与 ARS-111GL-NHR 类似,该系统是 1U 高密度 GPU 系统,但具有液体冷却的附加优势。 它具有相同的核心功能,如 NVIDIA Grace Hopper Superchip 和 900GB/s NVLink C2C 互连。 液体冷却提高了能源效率,使其适用于类似的高计算应用,但由于七个热插拔重型风扇,运营成本可能更低。

ARS-111GL-DHNR-LCC:GPU ARS-111GL-DNHR-LCC 将两个节点封装到 1U 外形尺寸中,每个节点都支持集成的 NVIDIA H100 GPU 和 Grace Hopper Superchip。 该服务器每个节点具有高达 576GB 的一致性内存,可实现高计算能力和空间效率的平衡。 它非常适合大型语言模型应用、高性能计算和人工智能/深度学习。

ARS-121L-DNR:这款高密度 1U 服务器包括两个节点,每个节点都支持 NVIDIA H100 GPU 和 144 核 NVIDIA Grace CPU Superchip。 该服务器每个节点有 2 个 PCIe 5.0 x16 插槽,每个节点最多可容纳四个热插拔 E1.S 驱动器和两个 M.2 NVMe 驱动器。 该服务器在 CPU 之间具有 900GB/s NVLink 互连,针对高性能计算、AI/深度学习和大型语言模型进行了优化。

ARS-221GL-NR:GPU ARS-221GL-NR 是一款 2U 高密度 GPU 系统,最多可支持四个 NVIDIA H100 PCIe GPU。 该服务器具有 480GB 或 240GB LPDDR5X 板载内存选项,专为低延迟、高能效任务而设计,非常适合高性能计算、超大规模云应用程序和数据分析。

SYS-221GE-NR:这款 2U 高密度 GPU 服务器最多支持四个 NVIDIA H100 PCIe GPU,并通过 8 个 DIMM 插槽提供最大 5TB 的 ECC DDR32 内存。 该服务器还配备 5.0 个 PCIe 16 x3 FHFL 插槽,并支持 NVIDIA BlueField-1 数据处理单元,可满足要求苛刻的加速计算工作负载。 凭借 EXNUMX.S NVMe 存储支持,该服务器适用于高性能计算、人工智能/深度学习和大型语言模型自然语言处理。

每个 MGX 平台均可通过 NVIDIA BlueField-3 DPU 或 NVIDIA ConnectX-7 互连进行升级,从而在 InfiniBand 或以太网网络中提供卓越的性能。

技术规格

Supermicro 的新 1U 英伟达 MGX 系统专为实现稳健的性能而设计,具有多达两个 NVIDIA GH200 Grace Hopper 超级芯片,每个都有两个 NVIDIA H100 GPU 和两个 NVIDIA Grace CPU。 这些单元配备了用于 CPU 的 480GB LPDDR5X 内存和用于 GPU 的 96GB 或 144GB HBM3/HBM3e 内存。

该系统利用 NVIDIA-C2C 互连,以高达 900GB/s 的速度连接 CPU、GPU 和内存,比 PCIe Gen5 标准快七倍。 此外,模块化设计包括多个 PCIe 5.0 x16 插槽,允许在额外的 GPU、用于云和数据管理的 DPU 以及存储解决方案方面进行扩展。

在运营效率方面,美超微的1U 2节点设计,配备液冷技术,有望将运营支出(OPEX)降低40%以上,同时提高计算密度。 这使得它非常适合部署大型语言模型集群和高性能计算应用程序。

转向 2U 配置,这些平台与 NVIDIA Grace 和 x86 CPU 兼容,并且可以托管多达四个全尺寸数据中心 GPU。 它们还具有额外的 PCIe 5.0 x16 I/O 插槽和八个热插拔 EDSFF 存储托架。

最终,Supermicro 的 MGX 系统采用 NVIDIA Grace Superchip CPU 设计,具有多功能性和高效性,该 CPU 具有 144 个内核,每瓦性能是当前 x86 CPU 的两倍。 这些系统旨在重新定义超大规模和边缘数据中心的计算密度和能源效率。

产品页面:

参与 StorageReview

电子报 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | TikTok | RSS订阅