QSAN Technology Inc. 推出了其下一代混合闪存存储 3300 系列,针对 SMB 工作负载优化了价格和性能。 我们实验室中的 QSAN XCubeSAN XS3312D 是一款 2U 双控制器 SAN,旨在满足中小型企业、远程或边缘位置以及需要兼顾性能和成本效益的任何其他地方的需求。 该系列的其他型号包括 2U 2 6 托架、3U 16 托架和 4U 24 托架型号。 所有这些都支持添加多达 20 个额外的 JBOD。
QSAN Technology Inc. 推出了其下一代混合闪存存储 3300 系列,针对 SMB 工作负载优化了价格和性能。 我们实验室中的 QSAN XCubeSAN XS3312D 是一款 2U 双控制器 SAN,旨在满足中小型企业、远程或边缘位置以及需要兼顾性能和成本效益的任何其他地方的需求。 该系列的其他型号包括 2U 2 6 托架、3U 16 托架和 4U 24 托架型号。 所有这些都支持添加多达 20 个额外的 JBOD。
QSAN XCubeSAN XS3312D 硬件概述
下一代 QSAN XCubeSAN XS3312D 是一款入门级块存储阵列,旨在满足现代工作负载所需的性能、简单性和经济性,并具有按需付费的灵活性。 该解决方案是虚拟化、媒体编辑、大规模监控和备份应用程序的绝佳选择。
该架构基于 Intel Xeon 64 位 4 核处理器,可配置为单控制器 (XS3312S) 或双主动-主动控制器配置 (XS3312D)。 XCubeSAN 附带 16GB DDR4 ECC DIMM 的基本内存配置,单控制器可升级至 256GB,双控制器配置可升级至 512GB(每个控制器 256GB)。 我们测试了双主动-主动控制器配置。
QSAN XS3312D 可以通过 XCubeDAS 或第三方扩展扩展到 492 个驱动器托架,并支持通过 SAS 3.0 12Gb/s 接口连接的 SAS、NL-SAS 和 SED 驱动器。 单控制器配置还可以容纳 SATA 6Gb/s 接口。 所有驱动器均可热插拔。
我们测试了什么
我们测试了 QSAN XCubeSAN XS3312D,这是一款 12 驱动器、双控制器双活单元。 XCubeSAN系列是一款高可用的SAN存储系统,采用模块化设计,全冗余。 它具有双活动架构、自动故障转移/故障恢复机制和缓存到闪存技术。 不要让尺寸欺骗了您。 XCubeSAN 可以使用 XCubeDAS 或第三方扩展单元扩展到 492 个驱动器托架。
QSAN XCubeSAN XS3312D – 前视图
QSAN 开发了一个令人印象深刻的交互式管理控制台,可以显示配置详细信息、状态、警报等。 QSAN XEVO 是一种基于闪存的存储管理系统,具有直观的 GUI,安装后五分钟内即可获得数据。 XEVO 的核心技术提供了简化混合存储系统所有内容所需的灵活性和智能。
QSAN XCubeSAN XS3312D – 后视图
XS3312D 功能一览
QSAN XCubeSAN XS3312D 提供了企业级 SAN 阵列中的许多功能。 一些关键功能包括:
- 优质生活 – 用于监视和分析 SSD 活动以提醒驱动器健康问题
- Q报告 – 用于业务使用分析以确定需要改进的领域
- 服务质量 – 用于 QoS 管理以平衡工作负载优先级
- 认证 – 配置和管理 SED 和 ISE
QSAN XCubeSAN XS3312D 具有 12.8 GB/s 和 1.3M IOPS 的卓越性能以及高达 10.8PB 的存储扩展容量。 该设计提供了企业级系统的高可靠性和 99.999% 的可用性,没有单点故障。 多功能连接功能包括 12 个主机端口(允许它连接到多个主机而无需单独的交换机)和使用 25GbE iSCSI 和 32Gb FC 主机卡的选项。
QSAN XCubeSAN XS3312D 提供灵活的连接选项,几乎可以满足任何主机连接需求,包括:
- PCIe 扩展(Gen3x8 插槽)x 2
- 1GbE RJ45 LAN 端口 – 每个控制器 1 个用于板载管理
- 10GbE SFP+ LAN 端口 – 每个板载控制器 4 个 iSCSI,可选额外的 4 个 iSCSI
- 10GbE RJ45 LAN 端口 – 2 个 iSCSI 可选
- 25GbE SFP28 LAN 端口 – 2 个 iSCSI 可选
- 16Gb SFP+ 光纤通道 – 2 / 4 可选
- 32Gb SFP28 光纤通道 – 2 个可选
- 12Gb/s SAS 宽端口 – 每个控制器板载 2 个用于扩展
- USB 端口 – 1 个前部/2 个后部
- 1个控制台端口
- 1 个服务端口 (UPS)
对于存储配置,QSAN XCubeSAN XS3312D 允许企业以各种方式构建和使用磁盘驱动器,提供 SAN 环境中预期的企业级功能,包括:
- RAID:0、1、5、6、10、50、60、5EE、6EE、50EE、60EE、N 路镜像
- 精简配置
- SSD 缓存和自动分层选项
- 快照和本地卷克隆
- 复制:异步和可选的同步
XS3312D 支持 SED(自加密驱动器)以在驱动器丢失、被盗或放错地方时保护数据。 RBAC(基于角色的访问控制)可防止对数据进行未经授权的访问。
QSAN管理
在深入了解我们的性能测试结果之前,让我们先看一下图形界面 QSAN XEVO。 该界面用于管理和监控阵列,并提供基于 GUI 的存储管理界面,简化实施、配置和维护。
XEVO 中的仪表板提供了存储基础架构状态的出色整体视图,同时允许快速访问工具以在需要时查看更多详细信息。
性能图提供阵列活动和性能的图形视图。 如果有什么不对劲,相关项目的颜色将从绿色变为黄色或红色。
在 Storage Overview 部分,Array 和 Disk 对象显示这些类别中的设备数量,单击其中一个或左上角的 System 菜单链接将打开 System 视图。
QSAN XEVO 阵列和磁盘配置
图形界面描绘了已安装系统的前视图和后视图。 将鼠标悬停在任何绿色区域上将显示其他信息。 颜色将根据指示的磁盘、电源控制器、风扇、端口等的警报状态而变化。
主机视图显示管理和配置主机的详细信息,包括管理卷的能力。
QSAN XEVO 主机管理
在此屏幕截图中,光纤通道连接下有一个主机 (SR_Lab),该主机有两个活动控制器,并且向主机提供了 4 个卷(即 LUN)。 用户可以修改卷并更改其 LUN 名称。
池管理界面管理池中包含的磁盘驱动器和卷的配置。
QSAN XEVO 池管理
如下所示,名为 Pool_02 的池有 6 个分配给配置的磁盘驱动器(插槽)。
QSAN XEVO 池管理磁盘配置
提供了有关每个驱动器的信息,包括警报级别(在本例中为绿色)、插槽编号、容量、当前状态和磁盘类型。
除了管理功能外,XEVO 还可以显示阵列性能的详细视图,包括卷、磁盘驱动器和数据端口。 下面提供了数据端口与主机连接的性能图示例。
下面是此阵列中可用的卷监控,显示每个卷的延迟、IOPS 和吞吐量。
在确定存储基础架构中的瓶颈时,对阵列的可用性能监控非常有用。
总体而言,用户界面直观且易于使用。 对于将这些单元用于客户的系统集成商来说,配置应该是一件轻而易举的事。 对于必须维护阵列的小型企业而言,执行定期监控和维护等任务是显而易见的,这意味着任何 IT 通才都应该能够选择此 GUI 并使用它运行。
QSAN XCubeSAN XS3312D 性能
对于这些测试,我们使用了 12x 7.68TB 希捷 Nytro 3350 SAS 固态硬盘。 对于每个配置,我们利用两个 RAID 组,每个组由 6 个 SSD 组成。 我们将驱动器拆分到两个控制器上以实现主动/主动配置。 使用 SSD 可以让测试消除大部分驱动器延迟并推动存储阵列的极限。
SQL Server 性能
Microsoft SQL Server OLTP 测试协议采用事务处理性能委员会的基准 C (TPC-C) 的当前草案,这是一个模拟复杂应用程序环境中活动的在线事务处理基准。 TPC-C 基准比综合性能基准更接近于衡量数据库环境中存储基础设施的性能优势和瓶颈。
每个 SQL Server VM 都配置有两个虚拟磁盘:一个用于启动的 100GB 卷和一个用于数据库和日志文件的 500GB 卷。 从系统资源的角度来看,我们为每个虚拟机配置了 16 个 vCPU 和 64GB 的 DRAM。
此测试使用在 Windows Server 2014 R2012 来宾虚拟机上运行的 SQL Server 2。 虽然我们对该基准测试的传统用法是在本地或共享存储上测试 3,000 规模的大型数据库,但在本次迭代中,我们专注于在我们的服务器上均匀分布四个 1,500 规模的数据库。
SQL Server 测试配置(每个虚拟机)
- Windows服务器2012 R2的
- 存储空间:分配 600GB,使用 500GB
- SQL Server的2014的
- 数据库大小:1,500 规模
- 虚拟客户端负载:15,000
- 内存缓冲区:48GB
- 测试时长:3 小时
- 2.5 小时预处理
- 30分钟采样期
在我们的 SQL Server 应用程序工作负载中,我们测得 RAID11 的平均延迟为 6 毫秒,RAID3 的平均延迟为 10 毫秒,表明 XCubeSAN XS3312D 在此负载下可以实现相当低的平均延迟。
Sysbench MySQL 性能
我们的第一个本地存储应用程序基准测试包括通过 SysBench 测量的 Percona MySQL OLTP 数据库。 此测试还测量平均 TPS(每秒事务数)、平均延迟和平均 99% 延迟。
Sysbench 测试配置(每个虚拟机)
- CentOS 6.3 64 位
- Percona XtraDB 5.5.30-rel30.1
- 数据库表:100
- 数据库大小:10,000,000
- 数据库线程:32
- 内存缓冲区:24GB
- 测试时长:3 小时
- 2 小时预处理 32 个线程
- 1 小时 32 个线程
在我们的 Sysbench 工作负载中,两种 RAID 配置非常匹配。 我们将 16 个 Sysbench 虚拟机平均分配到 RAID6 和 RAID10 池中的卷中,以测量两种 RAID 类型之间的性能差异。 我们在 RAID12,094 上测得总计 10 TPS,在 RAID11,443 上测得总计 6 TPS。
16VM 工作负载的平均延迟测量为 RAID42.49 为 10 毫秒,RAID44.75 为 6 毫秒。
在我们上次测量平均第 99 个百分位数延迟的 Sysbench 测试中,我们看到 RAID82.00 为 10 毫秒,RAID88.41 为 6 毫秒。
VDBench 工作负载分析
对于存储阵列基准测试,应用测试最好,综合测试次之。 虽然不能完美地代表实际工作负载,但综合测试可帮助存储设备建立可重复性因素的基线,从而轻松比较竞争解决方案。 这些工作负载提供了一系列不同的测试配置文件,从四个角落测试和常见的数据库传输大小测试到来自不同 VDI 环境的跟踪捕获。 这些测试利用通用的 vdBench 工作负载生成器和脚本引擎来自动化和捕获大型计算测试集群的结果。 这使我们能够在各种存储设备上重复相同的工作负载,包括闪存阵列和单个存储设备。
简介:
- 4K 随机读取:100% 读取,128 个线程,0-120% 重复率
- 4K 随机写入:100% 写入,64 线程,0-120% iorate
- 64K 顺序读取:100% 读取,16 个线程,0-120% 迭代
- 64K 顺序写入:100% 写入,8 个线程,0-120% 迭代
- 综合数据库:SQL 和 Oracle
- VDI 完整克隆和链接克隆跟踪
从我们的四个角工作负载(峰值吞吐量和峰值带宽)开始,我们查看了 4K 随机读取工作负载中的小块 I/O 饱和度。 在这里,我们看到两个 RAID 组在 2K IOPS 时都显示出低于 280ms 的延迟,然后分别达到 RAID326 的 6K IOPS 和 RAID338 的 10K IOPS 的峰值。
在我们的随机写入工作负载中,RAID6 以 146K IOPS 的峰值达到 12.8 毫秒的延迟,而 RAID10 将阵列推得更远,在 300 毫秒的平均延迟下达到了超过 5.9K 的 IOPS。
在 64K 顺序读取测试中,两种 RAID 配置均以 2GB/s 的吞吐量超过 2.2ms 延迟标记。 然而,RAID10 配置在 3.7GB/s 的吞吐量标记处开始经历更高的延迟增长,在 13.7GB/s 标记处以 4.54ms 的延迟达到顶峰。 与此同时,RAID6 以 4.39GB/s 左右的速度撞墙,延迟为 9.58ms。
对于顺序写入测试,QSAN XS3312D 在 RAID6.3 下实现了高达 9.7GB/s 的吞吐量和 10ms 的延迟,而 RAID6 在 6.2GB/s 左右接近匹配。 RAID6 以 2GB/s 的速度超过 4.5ms 延迟,而 RAID10 在 5.0ms 延迟时达到 2GB/s。
我们的下一组测试涵盖三种合成 SQL 工作负载:SQL、SQL 90-10 和 SQL 80-20。 在标准 SQL 工作负载下,我们能够将存储阵列推至 318K IOPS,然后再使用 RAID3 跨越 10 毫秒的延迟。 RAID6 最高 298K IOPS,延迟 3.22 毫秒。
在我们的 SQL 90% 读取和 10% 写入测试中,QSAN XS3312D 在 RAID309 上以 3.1 毫秒的延迟实现了大约 10K IOPS,而 RAID6 以超过 267 毫秒的延迟达到了 3.64K IOPS。
在 SQL 80-20 测试中,RAID6 在 233 毫秒延迟时实现了 4.18K IOPS,而 RAID10 在 307 毫秒延迟时实现了 3.1K IOPS。
接下来,我们有我们的合成 Oracle 工作负载:Oracle、Oracle 90-10 和 Oracle 80-20。 在第一个 Oracle 工作负载测试中,RAID6 在 228 毫秒延迟时实现了 5.26K IOPS,而 RAID10 在 3312 毫秒延迟时将 QSAN XS300D 推至 3.86K IOPS。
在 Oracle 90% 读取 10% 写入测试中,RAID6 在 262.5 毫秒延迟时达到 2.32K IOPS,而 RAID10 在 316.6 毫秒延迟时达到 1.92K IOPS。
对于 80% 读取/20% 写入测试,RAID6 在 234.8 毫秒延迟时达到 2.6K IOPS,而 RAID10 在 311 毫秒延迟时达到 1.9K IOPS。
在基准测试的最后一部分中,我们研究了综合 VDI 性能,测量了完整克隆和链接克隆场景。 我们从完整克隆开始,查看启动、初始登录和星期一登录事件。 对于 VM 启动测试,RAID10 能够在 290 毫秒延迟时实现 3.4K IOPS,RAID6 在 253.6 毫秒时达到 3.6K IOPS。
在 FC 初始登录测试中,RAID10 能够在 232.5 毫秒延迟时实现 3.64K IOPS,而 RAID6 在 135.5 毫秒时达到 6.3K IOPS。
在最后的 FC 测试中,周一登录工作负载,我们将 RAID10 推至 226.2K IOPS 2.26ms,RAID6 在 147.5ms 延迟时达到 3.46K IOPS 的峰值。
对于链接克隆启动测试,RAID10 在 232 毫秒延迟时实现了 2.2K IOPS,对于 RAID6,我们在 223 毫秒平均延迟时实现了 2.18K IOPS。
初始登录测试显示 RAID10 达到 180K IOPS,平均延迟为 1.4ms,而 RAID6 仅在 122ms 延迟时达到 2.1K IOPS。
在最终的 LC 测试中,周一登录工作负载,RAID10 达到了 190.1K IOPS,延迟为 2.68ms,而 RAID6 则达到了 131.8K IOPS,延迟为 3.88ms。
总结
多年来,我们的实验室有许多 QSAN 单元,它们在至关重要的三角平衡性能、成本和功能集方面一直表现出色。 这一次,XS3312 大同小异,这对小型企业、分布式企业、MSP 和区域云服务提供商来说是个好消息。
我们测试了 XS3312D 型号,它提供双控制器,而该单元的单控制器版本是 XS3312S。 对于双控制器,我们的测试配置利用了 6 个 SSD,分成两组,每组 10 个。 然后将它们配置为两组 RAIDXNUMX 或 RAIDXNUMX 池以进行各自的测试。
在速度和馈送方面,QSAN XS3312D 提供了强大的性能,在我们的 4.54K 顺序读取传输测试中,在 RAID10 中最高达到 64GB/s。 我们随机 4K 传输测试中的小块 I/O 在 RAID338 中也达到了 10k IOPs 的峰值。
在带有 SQL VM 负载的 SQL Server 应用程序测试中,RAID6 配置的平均聚合响应时间为 11 毫秒,而 RAID10 为 3 毫秒。 Sysbench 性能也很强,尽管这两种 RAID 类型之间没有太大差异。 在负载 16 个虚拟机的情况下,RAID10 测得的 TPS 为 12,094,而 RAID6 的测得为 11,443 TPS。
QSAN 继续为竞争激烈的入门级存储领域提供出色的解决方案。 这包括从需要额外软件或软件包来处理块存储的 NAS 解决方案,到主要 OEM 提供的往往功能丰富但价格昂贵的产品。 QSAN 在这两者之间做得很好,它提供了具有深度功能集的块存储,而且不会超出预算。
尽管看起来应该有很多解决方案来解决这个特定问题,但实际上并非如此。 此外,XS3312D 的零售价为 7,200 美元,而且所使用的驱动器没有锁定,因此客户或集成商可以灵活地进行部署。 总体而言,对于小型企业来说,这是一个很好的方式,可以从小处着手,并拥有一个可以在未来几年随着数据足迹经济高效地增长的解决方案。
QSAN 赞助了这份报告。 本报告中表达的所有观点和意见均基于我们对所考虑产品的公正看法。
参与 StorageReview
电子报 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | TikTok | RSS订阅