首页 企业版 NVIDIA Bluefield-2 DPU 提供创纪录的性能

NVIDIA Bluefield-2 DPU 提供创纪录的性能

by 哈罗德弗里茨

随着 NVIDIA BlueField-2 的发布,NVIDIA 继续推动数据处理单元 (DPU) 的发展。 NVIDIA BlueField-2 DPU 被誉为数据中心片上基础架构,并针对企业云和 HPC 工作负载进行了优化。 BlueField-2 将 NVIDIA ConnectX-6 Dx 网络适配器与一系列 Arm 内核和特定于基础架构的卸载相结合,并提供具有完整软件可编程性的专用硬件加速引擎。 今年早些时候,Brian 在他的一个常规播客中与 NVIDIA 进行了讨论。 你可以得到一些 NVIDIA DPU 细节在这里。

随着 NVIDIA BlueField-2 的发布,NVIDIA 继续推动数据处理单元 (DPU) 的发展。 NVIDIA BlueField-2 DPU 被誉为数据中心片上基础架构,并针对企业云和 HPC 工作负载进行了优化。 BlueField-2 将 NVIDIA ConnectX-6 Dx 网络适配器与一系列 Arm 内核和特定于基础架构的卸载相结合,并提供具有完整软件可编程性的专用硬件加速引擎。 今年早些时候,Brian 在他的一个常规播客中与 NVIDIA 进行了讨论。 你可以得到一些 NVIDIA DPU 细节在这里。

NVIDIA Bluefield-2

这些功能令人印象深刻,但首先,让我们看一下 DPU 的演变。 如果您不了解历史,可以跳至 NVIDIA BlueField-2 的详细信息。 它始于 90 年代,当时英特尔 x86 处理器与操作系统相结合,为企业提供了无与伦比的能力。 接下来是客户端/服务器,然后是分布式处理的出现。 软件开发和不断增长的数据库迅速加速,导致数据中心的硬件部署呈爆炸式增长。

2000 年代初,VMware 引入了 ESX 管理程序并将 x86 CPU 虚拟化,允许多个操作系统实例在单个服务器上运行。 VM 不一定是新的; 在创建 ESX 管理程序之前,IBM 在其大型机上运行虚拟机多年。 然而,这种发展导致了数据中心基础设施聚合的增长。

硬件现在是可编程的,开发人员可以编写代码来定义和配置虚拟机,而无需人工干预。 这最终推动了向云计算的迁移。

VMware 意识到其 ESX 平台的成功,并迅速进入存储和网络虚拟化领域。 EMC 也不甘示弱,与 Cisco 合作构建了自己的虚拟化网络和存储解决方案。 一连串的收购发生了。 VMware 开发了集成到其 vSphere 平台中的 vSANS。

这种融合基础设施的发展被称为软件定义数据中心(SDDC)。 微软、VMware、思科和 EMC 等大公司都在争夺 SDDC 市场。 一切都变得可编程:I/O、安全性、操作系统、应用程序等。SDDC 只是一个 CPU 组件,占用了用于其他服务的可用资源。

所有这些融合和可编程性导致了人工智能 (AI) 的发展,其中开发了 GPU 来满足这些图形密集型应用程序的处理要求。 这导致硬件的发展从 CPU 卸载了一些操作。 网络功能(通常是 CPU 密集型)被卸载,NVIDIA 抓住了这个新机会,收购了 Mellanox 以开发智能网络适配器。

GPU 变得更加智能,而智能 NIC 在从整个 SDDC 聚合中移除网络和图形处理方面发挥了关键作用。 最终,DPU 的发展是从 CPU 卸载智能的结果。

新的 NVIDIA BlueField-2 DPU 创建了一个片上系统,结合了多核 CPU、高性能网络接口和可编程加速引擎。

NVIDIA BlueField-2 DPU——肉

CPU v GPU v DPU:是什么让 DPU 与众不同? 

DPU 是结合了三个关键元素的新型可编程处理器。 DPU 是片上系统或 SoC,它结合了:

  1. 行业标准、高性能、软件可编程的多核 CPU,通常基于广泛使用的 Arm 架构,与其他 SoC 组件紧密耦合。
  2. 一种高性能网络接口,能够以线速或网络其余部分的速度向 GPU 和 CPU 解析、处理和高效传输数据。
  3. 一组丰富的灵活和可编程的加速引擎,可以卸载和提高人工智能和机器学习、安全、电信和存储等应用程序的性能。

NVIDIA® BlueField®-2 DPU 是首款针对现代云和 HPC 优化的数据中心片上基础设施。 提供广泛的加速软件定义网络、存储、安全和管理服务,能够卸载、加速和隔离数据中心基础设施。 BlueField-200 DPU 配备 2Gb/s 以太网或 InfiniBand 连接,可加速控制平面和数据平面的网络路径,并配备“零信任”安全性以防止数据泄露和网络攻击。

NVIDIA ConnectX®-6 Dx 将网络适配器与一系列 Arm® 内核和特定于基础架构的卸载相结合,提供具有完整软件可编程性的专用硬件加速引擎。 BlueField-2 位于每台服务器的边缘,支持敏捷、安全和高性能的云和人工智能 (AI) 工作负载,并在提高数据中心效率的同时降低 TCO。

NVIDIA DOCA™ 软件框架使开发人员能够为 BlueField-2 DPU 快速创建应用程序和服务。 NVIDIA DOCA 利用 DPU 硬件加速器,提高数据中心的性能、效率和安全性。

NVIDIA BlueField-2 DPU 特性

网络和主机接口

网络接口  BlueField SNAP – NVMe™ 和 VirtIO-blk
 以太网 – 10/25/50/100Gb/s 双端口,或 200Gb/s 单端口  NVMe-oF™ 加速
 InfiniBand – EDR / HDR100 的双端口,或 HDR 的单端口  压缩和解压加速
PCI Express接口  数据散列和重复数据删除
 8 或 16 条 PCIe Gen 4.0 通道  用于直连存储的 M.2 / U.2 连接器
 具有 8 个下行端口的 PCIe 开关分叉 网络
ARM/DDR 子系统   RoCE,零接触 RoCE
臂芯   无状态卸载:
 多达 8 个 Armv8 A72 内核(64 位)流水线  TCP/UDP/IP
 每 1 个内核 2MB 二级缓存   LSO/LRO/校验和/RSS/TSS/HDS
 6MB L3 高速缓存,具有多种逐出策略  VLAN 插入/剥离
DDR4 DIMM 支持   车联网
 单个 DDR4 DRAM 控制器   虚拟网络
 8GB / 16GB / 32GB 板载 DDR4   每端口多功能
 ECC错误保护支持   VMware NetQueue 支持
硬件加速   虚拟化层次结构
安全性   1K 入口和出口 QoS 级别
 使用硬件信任根的安全启动 启动选项
 安全固件更新  安全启动(RSA 认证)
 符合 Cerberus 标准  通过以太网远程启动
 正则表达式(RegEx)加速  通过 iSCSI 进行远程引导
 IPsec/TLS 动态数据加密  PXE 和 UEFI
 AES-GCM 128/256 位密钥
 AES-XTS 256/512 位静态数据加密  1GbE 带外管理端口
 SHA 256 位硬件加速  NC-SI、SMBus 上的 MCTP 和 PCIe 上的 MCTP
 硬件公钥加速器  用于监视和控制的 PLDM DSP0248
 RSA、迪菲-赫尔曼、DSA、ECC、  用于固件更新 DSP026 的 PLDM
EC-DSA,EC-DH  用于设备控制和配置的 I2C 接口
 真随机数生成器 (TRNG)  SPI接口到闪存
 eMMC 内存控制器
 UART
 USB

用于存储、网络和机器学习的 DPU

让我们来看看新的 BlueField-2 如何处理快速存储技术。 BlueField 为存储平台提供完整的解决方案,例如 NVMe over Fabrics (NVMe-oF)、全闪存阵列 (AFA) 和用于 JBOF 的存储控制器、服务器缓存 (memcached)、分解式机架存储和横向扩展直接-附加存储。 该 DPU 的智能使其成为灵活的选择。

NVIDIA 发布了令人印象深刻的测试结果 BlueField-2 在这里. 测试环境包含在博客中。

完整的存储解决方案

BlueField-2 将 Arm 内核的处理能力用于存储应用程序,例如使用 NVMe-oF、Ceph、Lustre、iSCSI/TCP 卸载、闪存转换层、数据压缩/解压缩和重复数据删除的全闪存阵列。

在高性能存储阵列中,BlueField-2作为系统的主CPU,处理存储控制器任务和流量终止。 它还可以配置为协处理器,从主机卸载特定的存储任务,将部分存储介质与主机隔离,或者使用 BlueField Arm 内核实现软件定义存储逻辑的抽象。

NVMe over Fabrics 功能

利用 NVMe-oF 的高级功能,基于 BlueField RDMA 的技术可提供与本地存储相当的远程存储访问性能,同时将 CPU 开销降至最低,从而实现高效的分解存储和超融合解决方案。

存储加速

BlueField 嵌入式 PCIe 交换机使客户能够构建独立的存储设备并将单个 BlueField 连接到 无需外部开关的多个存储设备。

签名移交

BlueField 嵌入式网络控制器使硬件 检查 T10 数据完整性字段/保护信息 (T10-DIF/PI),减少软件开销并加速向应用程序传输数据。 签名移交由适配器处理入口和出口数据包,从而减少发起方和目标机器上的软件负载。

用于网络和安全的 BlueField

无论是采用 smartNIC 形式还是作为独立网络平台,新的 Bluefield-2 都提供了网络应用程序的高效部署。 结合使用高级卸载和 Arm 计算 功能,BlueField 终止网络和安全协议 排队。 

BlueField 智能网卡 

作为网络适配器,您可以灵活地全部或部分 实施数据和控制平面,更有效地利用计算资源。 适配器的可编程性提供了集成新数据和控制平面功能的能力。

BlueField 安全功能

在安全方面, 对称和非对称加密卸载的集成 加密操作使其成为实施安全应用程序的绝佳选择。 安全性已融入数据中心的 DNA 基础设施,减少威胁暴露,最小化风险,并启用 实时预防、检测和响应潜在威胁。

无痛虚拟化 

NVIDIA 的 PCIe SR-IOV 技术,数据中心管理员 将受益于更好的服务器利用率,同时降低成本、功耗和 电缆复杂性,允许更多虚拟机和更多租户 在相同的硬件上。 这无疑解决了任何 TCO 问题。

叠加网络 

数据中心运营商使用网络覆盖技术(VXLAN、 NVGRE、GENEVE)来克服可扩展性障碍。 通过提供 封装/解封装的高级卸载引擎 覆盖协议标头,此 DPU 允许传统的卸载 在隧道协议上运行并卸载 NAT 路由 功能。

用于机器学习环境的 BlueField

当然,NVIDIA 已经通过这款新的 DPU 解决了 AI/ML 市场,为机器学习设备提供具有成本效益的集成解决方案。 可以通过 PCIe Gen 3.0/4.0 接口连接多个 GPU。 凭借其 RDMA 和 GPUDirect® RDMA 技术,BlueField-2 为实时分析和数据洞察提供高效的数据传输。

RDMA加速

网络控制器数据路径硬件利用 RDMA 和 RoCE 技术,以接近零的 CPU 周期提供低延迟和高吞吐量。

用于多 GPU 平台的 BlueField

BlueField-2 支持通过其连接多个 GPU 集成 PCIe 交换机。 BlueField PCIe 4.0 支持面向未来,适用于下一代 GPU 设备。

点对点直接® 

PeerDirect 是 Mellanox 的产品,是一种加速通信架构 支持 BlueField 和之间的点对点通信 第三方硬件,例如 GPU(例如 NVIDIA GPUDirect RDMA), 协处理器适配器(例如 Intel Xeon Phi)或存储适配器。 PeerDirect 提供了一个标准化的架构,其中 设备可以通过结构直接与远程设备通信,避免不必要的系统内存副本和 CPU 通过直接向/从设备复制数据来减少开销。

GPUDirect RDMA 技术

图形硬件性能的快速提高,再加上 随着 GPU 可编程性的最新改进,使图形 加速器是一个引人注目的平台,可满足计算要求 广泛的应用领域中的任务。 由于 GPU 提供 高核心数和浮点运算能力,需要高速网络连接平台 为 GPU 到 GPU 提供高吞吐量和最低延迟 通讯。 GPUDirect RDMA 是一种实现的技术 在启用直接路径的 Bluefield-2 和 NVIDIA GPU 中 用于GPU和高速之间的数据交换 互连。

GPUDirect RDMA 为两者提供了数量级的改进 GPU之间的通信带宽和通信延迟 不同集群节点的设备。

结语

NVIDIA 测试揭示了 BlueField DPU 的以下性能特征:

  • 使用较小的 512B I/O 大小进行测试会导致更高的 IOPS 但低于线速吞吐量,而 4KB I/O 大小会导致更高的吞吐量但会降低 IOPS 数量。
  • 100% 读取和 100% 写入工作负载提供相似的 IOPS 和吞吐量,而 50/50 混合读取/写入工作负载通过同时使用网络连接的两个方向产生更高的性能。
  • 使用 SPDK 导致比内核空间软件更高的性能,但是以更高的服务器 CPU 利用率为代价,这是预期的行为,因为 SPDK 在用户空间中运行并不断轮询。
  • 由于 Linux 社区定期添加的存储改进,较新的 Linux 5.15 内核的性能优于 4.18 内核。

总体而言,内部测试的结果令人印象深刻。 这 BlueField-2 达到 41.5 万次 IOPS 这是当今市场上任何其他 DPU 的四倍多。

标准联网结果也令人印象深刻。 DPU 时钟超过 NVMe-oF 的 4 万个 20KB IOPS 和 512 万到超过 XNUMX 万个 XNUMXKB IOPS. 如果您希望提高数据中心的整体性能,此 DPU 应该符合要求。

参与 StorageReview

电子报 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | Facebook | TikTok | RSS订阅