NetApp AFF A800 会很好地满足那些在市场上寻找高性能全闪存存储阵列的人的需求。 端到端 NVMe 阵列提供强大的性能,来自 NetApp 强大的 AFF 阵列系列。 我们之前已经通过光纤通道审查了 A800,发现它是获得我们编辑选择奖的表演者的野兽。 对于本次审查,我们仅在这次利用 NVMe over Fabrics (NVMeOF) 测试同一阵列。
NetApp AFF A800 会很好地满足那些在市场上寻找高性能全闪存存储阵列的人的需求。 端到端 NVMe 阵列提供强大的性能,来自 NetApp 强大的 AFF 阵列系列。 我们之前已经通过光纤通道审查了 A800,发现它是获得我们编辑选择奖的表演者的野兽。 对于本次审查,我们仅在这次利用 NVMe over Fabrics (NVMeOF) 测试同一阵列。
由于这是后续审核,我们不会涉及设计和构建、规范或管理等内容。 我们的 初步审查 很好地进入了这些领域中的每一个。 审查的设置与不同的网络接口基本相同,以查看性能差异。 应该注意的是,这不完全是同类比较。 该阵列为不同用户的需求提供了各种连接,我们正在审查不同的类型,让这些用户了解对哪种连接选项有什么期望。
NVMeOF 于 2014 年首次推出,其概念是通过网络使用传输协议,而不是仅通过 PCIe 总线利用 NVMe 设备。 NVM Express, Inc. 于 2016 年发布了 NVMeOF 标准。NVMeOF 允许 NVMe 主机连接到 NVMe 目标存储,同时保持低延迟。 一般的想法是在不显着增加延迟的情况下获得更高的性能。 迄今为止,来自不同供应商的许多方法都支持协议,或者可以同时在多种模式下运行。 配备 ONTAP 的 AFF A800 能够同时运行 CIFS、NFS、iSCSI、FCP 和 FC NVMeOF,所有这些都毫不费力。 并非所有平台都是以这种方式构建的,即使是 NetApp EF600(设计时考虑到的目标略有不同)也可以在 FCP 或 FC NVMeOF 中运行,但不能同时在两者中运行。
性能配置
我们的 NetApp AFF A800 配置包括 8 个 32Gb FC 端口,安装了 24 个 1.92TB NVMe SSD。 在我们的 A24 中部署的 1.92 个 800TB SSD 中,我们将它们分成两个 RAID-DP 聚合,实际上使用了 23 个 SSD 和两个半分区作为热备用。 每个 SSD 的一半被分配给两个控制器,因此每个控制器都可以利用所有安装的 SSD 的性能。 该阵列通过两个 Brocade G32 交换机以 620Gb 连接,然后有 16 个 32Gb 链接到 12 个运行 SLES 740 SP12 的 Dell PowerEdge R4xd 服务器。
每台服务器都配备了 2 个 350GB LUN,总存储空间为 8.4TB。
性能
在对存储阵列进行基准测试时,应用程序测试是最好的,综合测试排在第二位。 虽然不能完美代表实际工作负载,但综合测试确实有助于为具有可重复性因素的存储设备建立基线,从而可以轻松地在竞争解决方案之间进行同类比较。 这些工作负载提供了一系列不同的测试配置文件,包括“四个角”测试、常见的数据库传输大小测试,以及来自不同 VDI 环境的跟踪捕获。 所有这些测试都利用通用的 vdBench 工作负载生成器,以及一个脚本引擎来自动化和捕获大型计算测试集群的结果。 这使我们能够在各种存储设备上重复相同的工作负载,包括闪存阵列和单个存储设备。
简介:
- 4K 随机读取:100% 读取,128 个线程,0-120% 重复率
- 4K 随机写入:100% 写入,64 线程,0-120% iorate
- 64K 顺序读取:100% 读取,16 线程,0-120% 迭代
- 64K 顺序写入:100% 写入,8 个线程,0-120% 迭代
- 综合数据库:SQL 和 Oracle
NVMeOF 与 A800 的主要性能优势是提高读取性能和降低延迟。 我们之前的测试重点关注 VMware 内部使用 FCP 协议的性能,VMDK 附加到多个虚拟机,我们的 NVMeOF 测试重点关注裸机性能。 因此,您无法与我们现有的数据进行直接的一对一比较。 还需要注意的是,为了对所有存储阵列进行一致的测试,我们保持每个存储阵列的线程数相同。 通过在 A800 上进行 NVMeOF 测试,我们确实注意到在延迟显着增加之前完成测试的一些区域。 首先,这表明该平台的性能非常出色,以令人印象深刻的性能统计数据实现了低延迟。 不利的一面是,一些性能被搁置在桌面上。 NetApp 表示,在某些情况下,A800 可以驱动比我们测量的更高的性能。
从 4K 读取开始,采用 NVMeOF 的 A800 以 217,460 IOPS 的速度开始,延迟仅为 196.8µs,然后以 2,184,220 IOPS 的速度达到峰值,延迟为 1.22ms。
对于 4K 写入,该阵列以 48,987 IOPS 和 196 微秒的延迟开始,然后以 465,445 IOPS 的峰值达到 2.44 毫秒的延迟。
接下来是我们的 64K 顺序工作负载。 对于 64K 读取,A800 能够始终保持亚毫秒级延迟,峰值性能约为 403K IOPS 或 25GB/s,延迟为 800µs,然后略有下降。
对于 64K,使用 NVMeOF 写入 A800 开始很强,一直保持在 1ms 以下,直到大约 110K IOPS 或大约 7GB/s,然后以 120,314 IOPS 或 7.52GB/s 达到峰值,延迟为 1.48ms。
我们的下一批基准是我们的 SQL 测试。 在 SQL 中,A800 始终保持在 1 毫秒以下,峰值为 1,466,467 IOPS,延迟仅为 496.6 微秒,令人印象深刻。
对于 SQL 90-10,采用 NVMeOF 的 A800 再次表现出令人印象深刻的亚毫秒级延迟性能,从 139,989 IOPS 开始,峰值为 1,389,645 IOPS,延迟仅为 539.6µs。
SQL 80-20 再次出现亚毫秒级延迟,峰值为 1,108,068 IOPS,延迟为 658µs。
继续我们的 Oracle 工作负载,采用 NVMeOF 的 A800 保持在 1 毫秒以下,峰值得分为 1,057,570 IOPS,延迟为 860.4 微秒。
在 Oracle 90-10 中,A800 以 118,586 IOPS 开始,峰值为 1,140,178,397.6 IOPS,延迟为 XNUMXµs。
在 Oracle 80-20 中,我们再次看到 A800 从 104,206 IOPS 开始一直具有亚毫秒级延迟,并在 1,003,577µs 延迟时达到 468.8 IOPS 的峰值。
总结
NetApp AFF A800 是一个 4U 的全闪存阵列,支持块和文件访问,以及端到端 NVMe 支持。 A800 针对那些需要大量性能和大量存储的最苛刻工作负载的用户,最大有效容量为 316.8PB。 虽然我们的第一个 获奖评论 通过传统光纤通道查看此阵列,这篇评论利用 NVMe over Fabrics 来了解情况如何。
对于我们的 VDBench 工作负载,NetApp AFF A800 全面提供了一组令人印象深刻的数字。 在我们基本的四个角落运行中,我们看到了 4 万 IOPS 读取和 2.2K IOPS 写入的随机 465K 峰值性能。 在我们连续的 64K 工作负载中,我们看到 25GB/s 的读取速度和 7.52GB/s 的写入速度。 在我们的 SQL 工作负载中,我们看到了 1.5 万 IOPS 的峰值,SQL 90-10 看到了 1.4 万 IOPS,SQL 80-20 看到了 1.1 万 IOPS。 我们的 Oracle 测试显示了令人印象深刻的 1.1 万 IOPS,Oracle 90-10 给了我们 1.14 万 IOPS,而 Oracle 80-20 有 1 万 IOPS。 更令人印象深刻的是 SQL 和 Oracle 工作负载始终保持在 1 毫秒以下的延迟。
尽管我们在为 NVMeOF 配置的 A800 上看到了很好的结果,尤其是在读取性能方面,但值得注意的是,该系统仍有更多优势。 在我们的测试中,负载生成服务器都是基于 VMware 管理程序的,这又增加了一层复杂性。 此外,VMware 目前并不完全支持 NVMeOF。 对于希望通过 NetApp 系统充分利用 NVMeOF 的主流企业,裸机将带来最佳性能。 也就是说,许多人希望在混合配置中使用 NVMeOF ONTAP 系统,同时使用结构和标准光纤通道连接。 无论哪种情况,NetApp 在采用和部署领先一代技术方面继续处于领先地位,以确保他们的阵列随时准备好满足客户的任何需求。 A800 在这方面做得特别好,这就是我们在初步审查中授予它编辑选择奖的原因。 NVMeOF 增加了巨大的性能提升,这应该会吸引需要最大吞吐量和微秒级延迟的企业,以实现其关键业务应用程序。