首页 企业 OCI Compute BM.GPU.H100.8 将 8 个 NVIDIA H100 GPU 引入云端

OCI Compute BM.GPU.H100.8 将 8 个 NVIDIA H100 GPU 引入云端

by 布赖恩·比勒

Oracle 云基础设施 (OCI) 推出了全新的裸机计算配置,其中包含 100 个 NVIDIA H56 GPU、双 Intel 2 核 Xeon CPU、5TB DDR16、400 个 NVMe SSD 和 100.8Gb 网络,实现云中的 AI 梦想。 OCI 计算 BM.GPU.HXNUMX 现已全面上市。

Oracle 云基础设施 (OCI) 推出了全新的裸机计算配置,其中包含 100 个 NVIDIA H56 GPU、双 Intel 2 核 Xeon CPU、5TB DDR16、400 个 NVMe SSD 和 100.8Gb 网络,实现云中的 AI 梦想。 OCI 计算 BM.GPU.HXNUMX 现已全面上市。

新的 OCI 计算 BM.GPU.H100.8 本质上利用了 Oracle 丰富的裸机云专业知识,提供通常在本地部署的高密度 8 路 H100 GPU 服务器的云版本。 但是像这样的东西 戴尔 PowerEdge XE9680 交付可能需要一点时间,但随着资本支出的增加,OCI Compute BM.GPU.H100.8 可以更立即可用,并遵循传统的云 OPEX 模型。

OCI计算BM.GPU.H100.8

元件 规格
中央处理器 第四代 Intel Xeon 处理器,4 个 2 核
GPU 8 个 NVIDIA H100 80GB 张量核心
内存 2TB DDR5
本地存储 16 个 3.84 TB NVMe
集群组网 8x 400 Gb/秒

OCI 计算 BM.GPU.H100.8 规范或多或少模拟了这些功能强大的 GPU 服务器的本地版本,尽管 SSD 数量是此类服务器上常见的两倍(尽管容量较低)。 Oracle 还表示,计划于 40 年初推出新的 NVIDIA L2024S GPU。BM.L40S.4 形状将包括四个 L40S GPU,配备双 Intel Xeon 56 核 CPU、1TB 内存、15.36TB 内存。 NVMe 存储和 400GB/s 的网络带宽。

虽然许多组织只需使用其中一个实例就可以了,但 OCI Supercluster 允许他们从单个节点扩展到最多 50,000 个 H100 GPU。 该选项将于今年晚些时候在伦敦和芝加哥地区推出,未来还会推出更多选项。

OCI 人工智能基础设施

参与 StorageReview

电子报 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | TikTok | RSS订阅