A principios de este año, QSAN lanzó su primera SAN All-Flash con QSAN XCubeFAS XF2026D. A diferencia de ser una actualización de la línea XCubeSAN de QSAN, el XCubeFAS XF2026D es un producto SAN completamente nuevo. El producto está construido sobre la base de ser fácil de usar, puede implementarse e integrarse en cualquier entorno y es asequible independientemente del tamaño de la empresa.
A principios de este año, QSAN lanzó su primera SAN All-Flash con QSAN XCubeFAS XF2026D. A diferencia de ser una actualización de la línea XCubeSAN de QSAN, el XCubeFAS XF2026D es un producto SAN completamente nuevo. El producto está construido sobre la base de ser fácil de usar, puede implementarse e integrarse en cualquier entorno y es asequible independientemente del tamaño de la empresa.
Los cimientos establecidos anteriormente son el objetivo principal del QSAN XCubeFAS XF2026D. La compañía afirma que la nueva SAN puede ser operada por todos y administrada con solo unos pocos clics. QSAN afirma que funciones como la creación de múltiples volúmenes, la replicación remota automática, el monitoreo de SSD y el análisis de rendimiento son fáciles de usar. QSAN también afirma que el XF2026D se puede implementar e integrar en cualquier entorno de datos, ya sea que necesite un alto rendimiento o ciertas características que son ideales para casos de uso como entornos de virtualización, análisis de big data y administración de aplicaciones exigentes. Todo lo anterior viene con las afirmaciones de asequibilidad.
El QSAN XCubeFAS XF2026D es un SAN 2U que tiene una arquitectura de controlador activo dual. La SAN ofrece alta disponibilidad al diseñar todo con redundancia total. También cuenta con un mecanismo automático de conmutación por error/conmutación por recuperación y duplicación de caché a través del bus NTB (puente no transparente) para lograr la funcionalidad activo-activo. Con estas funciones, el XF2026D reclama una disponibilidad del 99.9999 %.
Otra característica nueva que también mejora la confiabilidad de los datos es la protección de la memoria Cache-to-Flash. Esta tecnología conserva los datos de caché en caso de corte de energía. El XF2026D aprovecha un módulo de respaldo de batería para transferir los datos de la memoria caché a un módulo flash M.2, lo que garantiza que no se pierdan datos ni se produzcan inconsistencias.
Especificaciones de QSAN XCubeFAS XF2026D
Factor de forma | 2U |
CPU | Procesador Intel Xeon de 4 núcleos (el modelo de procesador de 8 núcleos también está disponible) |
Memoria (por controlador) | Hasta 128 GB DDR4 ECC |
Controlador RAID | Controlador dual activo-activo |
Protección de memoria | Módulo de caché a flash Módulo de respaldo de batería + módulo Flash |
Conectividad de host | |
Ranura para tarjeta de anfitrión 1 | (Opcional): 4 puertos FC de 16 Gb (SFP+) 2 puertos FC de 16 Gb (SFP+) 4 puertos iSCSI (SFP+) de 10 GbE 2 puertos iSCSI de 10 GbE (RJ45) |
Ranura para tarjeta de anfitrión 2 | (Opcional): 4 puertos FC de 16 Gb (SFP+) 2 puertos FC de 16 Gb (SFP+) 4 puertos iSCSI (SFP+) de 10 GbE 2 puertos iSCSI de 10 GbE (RJ45) |
2 puertos 10GBASE-T iSCSI (RJ45) integrados 1 puerto de gestión de 1 GbE integrado |
|
Storage | |
Bahías | 26 |
Tipo de unidad | SSD SED de 2.5" SAS |
Unidades máximas admitidas | 130 |
Expansión | |
Conectividad | 2 puertos anchos SAS de 12 Gb/s integrados (SFF-8644) |
Capacidades | Hasta 4 unidades de expansión con gabinete de expansión SAS de 5326 Gb XD26 (SFF de 12 bahías) |
Potencia | |
Suministro | 80 PLUS Platinum, dos redundantes de 770 W (1+1) |
Entrada de CA | 100 - 127V 10A, 50-60Hz 200-240V 5A, 50-60Hz |
Salida DC | + 12V 63.4A +5VSB 2.0A |
Módulo de ventilador | 2 x módulos de ventilador conectables en caliente/redundantes |
Temperatura | |
Funcionamiento | 0 a 40 ° C |
Tarifas de envío | -10 ° C a 50 ° C |
Humedad relativa | 20% -80% |
Garantía | Sistema de 3 años, respaldo de batería de 1 año |
Diseño y construcción
Como se dijo, QSAN XCubeFAS XF2026D es una SAN 2U y el diseño se mantiene en línea con el resto de productos QSAN. En la parte frontal se encuentran los 26 compartimientos para unidades de 2.5” con el botón de liberación verde característico. En el lado derecho del panel frontal se encuentran el botón de encendido del sistema, el botón UID (Identificador único), los LED de acceso y estado del sistema y un puerto USB para el módulo USB LCM.
La parte posterior del dispositivo tiene las fuentes de alimentación duales redundantes, así como los controladores duales. Cada controlador tiene conectividad de red gemela 10Gbase-T integrada, además de una interfaz de administración fuera de banda. Para conectividad adicional, cada controlador tiene dos ranuras para tarjetas de host, que se pueden cargar con tarjetas de 8/16 Gb de puerto doble o cuádruple, o tarjetas Ethernet de 10 Gb de puerto doble o cuádruple. Esto brinda a los usuarios una amplia gama de opciones para conectar el almacenamiento a un entorno de centro de datos diverso. Las capacidades de expansión también se admiten a través de dos puertos SAS de 12 Gb/s por controlador, lo que permite estantes de expansión SAS 3.0. En la esquina superior izquierda se encuentra el módulo de batería y memoria Flash-to-Cache.
Gestionamiento
Con esta SAN viene un nuevo sistema operativo de gestión de QSAN, XEVO. Esta GUI HTML5 sigue principios similares a los modelos QSAN anteriores, específicamente la facilidad de uso. La página principal o panel tiene una vista rápida de cualquier cosa que un administrador pueda necesitar saber de inmediato. Esto incluye alertas de hardware, capacidad utilizada, alertas del sistema, descripción general del almacenamiento y rendimiento en tiempo real. Hay varias pestañas en la parte superior que incluyen: Tablero, Almacenamiento, Hosts, Protección, Análisis, Sistema y Mensajes.
En la pestaña Almacenamiento, los usuarios pueden ver los grupos de almacenamiento o crear otros nuevos. Dentro del grupo, pueden ver cuánto almacenamiento se usa, la salud y el estado del almacenamiento, así como los grupos de discos y volúmenes.
En la pestaña Análisis, los usuarios pueden ver información importante, como el rendimiento de un volumen (desglosado en latencia, IOPS y rendimiento), así como el uso de la capacidad de un volumen.
La pestaña Sistema muestra el hardware y lo que está haciendo actualmente. Los usuarios pueden seleccionar entre las subpestañas de Matrices, Configuración, Puertos de datos y Mantenimiento. En la subpestaña Matrices, los usuarios pueden pasar el cursor sobre cosas como el ícono de temperatura para ver la temperatura del host seleccionado.
Los usuarios también pueden pasar el mouse sobre un disco específico para ver el tipo, la temperatura, el estado y la vida restante estimada.
En general, la interfaz de usuario y la administración son un gran paso adelante para QSAN. Los sistemas anteriores no eran difíciles de administrar, pero esta apariencia es mucho mejor. En una era en la que una interfaz HTML5 utilizable está en juego, QSAN marca esa casilla.
Performance
Análisis de la carga de trabajo de la aplicación
Los puntos de referencia de la carga de trabajo de la aplicación para QSAN XCubeSAN XF2026D consisten en el rendimiento de OLTP de MySQL a través de SysBench y el rendimiento de OLTP de Microsoft SQL Server con una carga de trabajo TPC-C simulada. En cada escenario, teníamos el arreglo configurado con 26 SSD Toshiba PX04SV SAS 3.0, configurados en dos grupos de discos RAID12 de 10 unidades, uno conectado a cada controlador. Esto dejó 2 SSD como repuestos. A continuación, se crearon dos volúmenes de 5 TB, uno por grupo de discos. En nuestro entorno de prueba, esto creó una carga equilibrada para nuestras cargas de trabajo de SQL y Sysbench.
Rendimiento de SQL Server
Cada máquina virtual con SQL Server está configurada con dos discos virtuales: un volumen de 100 GB para el arranque y un volumen de 500 GB para la base de datos y los archivos de registro. Desde la perspectiva de los recursos del sistema, configuramos cada VM con 16 vCPU, 64 GB de DRAM y aprovechamos el controlador LSI Logic SAS SCSI. Si bien nuestras cargas de trabajo de Sysbench probadas anteriormente saturaron la plataforma tanto en E/S de almacenamiento como en capacidad, la prueba de SQL busca el rendimiento de la latencia.
Esta prueba utiliza SQL Server 2014 ejecutándose en máquinas virtuales invitadas de Windows Server 2012 R2 y está destacada por Benchmark Factory for Databases de Quest. Si bien nuestro uso tradicional de este punto de referencia ha sido probar grandes bases de datos de escala 3,000 en almacenamiento local o compartido, en esta iteración nos enfocamos en distribuir cuatro bases de datos de escala 1,500 de manera uniforme en el QSAN XF2026D (dos máquinas virtuales por controlador).
Configuración de prueba de SQL Server (por VM)
- Windows Server 2012 R2
- Huella de almacenamiento: 600 GB asignados, 500 GB utilizados
- SQL Server 2014
- Tamaño de la base de datos: escala 1,500
- Carga de clientes virtuales: 15,000
- Búfer RAM: 48GB
- Duración de la prueba: 3 horas
- 2.5 horas de preacondicionamiento
- Período de muestra de 30 minutos
Equipo LoadGen de fábrica de referencia OLTP de SQL Server
- Dell EMC PowerEdge R740xd Clúster de 4 nodos de SQL virtualizado
- 8 CPU Intel Xeon Gold 6130 para 269 GHz en clúster (dos por nodo, 2.1 GHz, 16 núcleos, caché de 22 MB)
- 1 TB de RAM (256 GB por nodo, 16 GB x 16 DDR4, 128 GB por CPU)
- 4 x Emulex 16GB FC HBA de dos puertos
- 4 NIC Mellanox ConnectX-4 rNDC de 25 GbE de dos puertos
- VMware ESXi vSphere 6.5/Enterprise Plus 8-CPU
Con la puntuación transaccional de SQL Server, el XF2026D obtuvo una puntuación total de 12,635.5 3,158.7 TPS con máquinas virtuales individuales funcionando de 3,159 a XNUMX TPS.
Para la latencia promedio de SQL Server, el XF2026D obtuvo una puntuación total de 5.0 ms.
Rendimiento de Sysbench
Cada banco de sistema La máquina virtual está configurada con tres discos virtuales, uno para arranque (~92 GB), uno con la base de datos preconstruida (~447 GB) y el tercero para la base de datos bajo prueba (270 GB). Desde la perspectiva de los recursos del sistema, configuramos cada máquina virtual con 16 vCPU, 60 GB de DRAM y aprovechamos el controlador LSI Logic SAS SCSI. Los sistemas de generación de carga son servidores Dell R740xd.
Clúster de 740 nodos MySQL virtualizado Dell PowerEdge R4xd
- 8 CPU Intel Xeon Gold 6130 para 269 GHz en clúster (dos por nodo, 2.1 GHz, 16 núcleos, 22 MB de caché)
- 1 TB de RAM (256 GB por nodo, 16 GB x 16 DDR4, 128 GB por CPU)
- 4 x Emulex 16GB FC HBA de dos puertos
- 4 NIC Mellanox ConnectX-4 rNDC de 25 GbE de dos puertos
- VMware ESXi vSphere 6.5/Enterprise Plus 8-CPU
Configuración de prueba de Sysbench (por VM)
- CentOS 6.3 de 64 bits
- Huella de almacenamiento: 1 TB, 800 GB utilizados
- Percona XtraDB 5.5.30-rel30.1
- Tablas de base de datos: 100
- Tamaño de la base de datos: 10,000,000
- Subprocesos de la base de datos: 32
- Búfer RAM: 24GB
- Duración de la prueba: 3 horas
- 2 horas preacondicionamiento 32 hilos
- 1 hora 32 hilos
En nuestro banco de pruebas de Sysbench, probamos varios conjuntos de 8VM, 16VM y 32VM. En rendimiento transaccional, el XF2026D alcanzó cifras de 12,983.8 8 TPS para 22,484.4 VM, 16 29,893.9 TPS para 32 VM y XNUMX XNUMX TPS para XNUMX VM.
Con una latencia promedio, el XF2026D tuvo 19.7 ms para 8 VM, 23 ms para 16 VM y 36 ms para 32 VM.
En nuestro punto de referencia de latencia del peor de los casos, el XF2026D alcanzó los 34.8 ms para 8 VM, 41.7 ms para 16 VM y 65.6 ms para 32 VM.
Análisis de carga de trabajo de VDBench
Cuando se trata de comparar matrices de almacenamiento, las pruebas de aplicaciones son las mejores y las pruebas sintéticas ocupan el segundo lugar. Si bien no es una representación perfecta de las cargas de trabajo reales, las pruebas sintéticas ayudan a los dispositivos de almacenamiento de referencia con un factor de repetibilidad que facilita la comparación de manzanas con manzanas entre las soluciones de la competencia. Estas cargas de trabajo ofrecen una gama de diferentes perfiles de prueba que van desde pruebas de "cuatro esquinas", pruebas comunes de tamaño de transferencia de bases de datos, así como capturas de seguimiento de diferentes entornos VDI. Todas estas pruebas aprovechan el generador de cargas de trabajo vdBench común, con un motor de secuencias de comandos para automatizar y capturar resultados en un gran clúster de pruebas informáticas. Esto nos permite repetir las mismas cargas de trabajo en una amplia gama de dispositivos de almacenamiento, incluidos arreglos flash y dispositivos de almacenamiento individuales. En el lado del arreglo, usamos nuestro grupo de servidores Dell PowerEdge R740xd:
perfiles:
- Lectura aleatoria 4K: 100 % de lectura, 128 subprocesos, 0-120 % de iorate
- Escritura aleatoria 4K: 100 % de escritura, 64 subprocesos, 0-120 % de iorate
- Lectura secuencial de 64 K: 100 % de lectura, 16 subprocesos, 0-120 % de iorate
- Escritura secuencial de 64 K: 100 % de escritura, 8 subprocesos, 0-120 % de iorate
- Base de datos sintética: SQL y Oracle
- Trazas de clones vinculados y clones completos de VDI
En el rendimiento máximo de lectura de 4K, el XF2026D comenzó con una latencia de submilisegundos, recorrió la línea de 1 ms durante un rato y superó 1 ms alrededor de 15 403,790 IOPS. La SAN alcanzó un máximo de 6.03 XNUMX IOPS con una latencia de XNUMX ms.
Con escrituras aleatorias de 4K, vemos una mejora en la latencia con el XF2026D que mantiene una latencia de submilisegundos hasta alrededor de 250 270 IOPS y llega a un máximo de alrededor de 4.4 XNUMX IOPS con una latencia de XNUMX ms antes de caer un poco.
Cambiando a secuencial de 64K, el XF2026D comenzó apenas por debajo de 1 ms en lectura antes de pasar y luego alcanzar un pico de poco más de 125K IOPS o 7.8 GB/s con una latencia de aproximadamente 4.1 ms antes de caer ligeramente.
Con 64K de escritura, nuevamente vemos una mejor latencia con el XF2026D manteniendo una latencia de submilisegundos hasta alrededor de 64K IOPS o 4GB/s y alcanzando un máximo de 70,731 IOPS o 4.4GB/s con 3.6ms de latencia.
El siguiente paso es nuestra carga de trabajo de SQL en la que el XF2026D se mantuvo por debajo de 1 ms hasta aproximadamente 210 362,807 IOPS y llegó a un máximo de 2.62 XNUMX IOPS con una latencia de XNUMX ms.
En SQL 90-10, el XF2026D tenía una latencia de submilisegundos hasta aproximadamente 200 328,209 IOPS y alcanzó un máximo de 2.82 XNUMX IOPS con una latencia de XNUMX ms.
Para SQL 80-20, el XF2026D se mantuvo por debajo de 1 ms hasta aproximadamente 120 296,772 IOPS y alcanzó un máximo de 3.1 XNUMX IOPS con una latencia de XNUMX ms.
El siguiente lote de puntos de referencia son las cargas de trabajo de Oracle con el XF2026D manteniéndose por debajo de 1 ms hasta aproximadamente 125 293,975 IOPS y con un pico de 3.91 XNUMX IOPS y una latencia de XNUMX ms.
Para Oracle 90-10, el XF2026D llegó a 230 327,269 IOPS con una latencia de submilisegundos y tuvo un pico de 1.91 XNUMX IOPS a una latencia de XNUMX ms.
En el punto de referencia de Oracle 80-20, el XF2026D tuvo un rendimiento de latencia de submilisegundos hasta aproximadamente 130 296,549 IOPS y alcanzó un máximo de 2.1 XNUMX IOPS con XNUMX ms de latencia.
A continuación, cambiamos a nuestras pruebas de clones VDI, Full Clone (FC) y Linked Clone (LC). Para VDI FC Boot, el XF2026D tuvo un rendimiento de latencia de submilisegundos hasta poco menos de 10 247,710 IOPS con un pico de 3.84 XNUMX IOPS y una latencia de XNUMX ms.
El inicio de sesión inicial de VDI FC vio al XF2026D recorrer la línea de 1 ms durante algún tiempo con un pico de aproximadamente 65 7.2 IOPS a una latencia de XNUMX ms antes de caer un poco.
Con VDI FC Monday Login, el XF2026D comenzó mejor en cuanto a la latencia, se mantuvo por debajo de 1 ms hasta aproximadamente 48K IOS y alcanzó un pico de 72,224 IOPS con una latencia de 4.73 ms.
Cambiando a Linked Clone (LC), primero observamos la prueba de arranque. En este escenario, el XF2026D tuvo un rendimiento de latencia de submilisegundos hasta alrededor de 65 152,191 IOPS y alcanzó un máximo de 3.22 XNUMX IOPS con XNUMX ms de latencia.
Con el inicio de sesión inicial de VCI LC, vimos una latencia más fuerte antes con el XF2026D manteniéndose por debajo de 1 ms hasta aproximadamente 35 44,461 IOPS con un pico de 3.76 XNUMX IOPS a una latencia de XNUMX ms.
Finalmente, nuestro VDI LC Monday Login hizo que el XF2026D comenzara justo por debajo de 1 ms y recorriera la línea de 1 ms hasta 35 46 IOPS antes de alcanzar un máximo de aproximadamente 5.4 XNUMX IOPS con una latencia de XNUMX ms.
Conclusión
El QSAN XCubeFAS XF2026D es el último SAN de la compañía y el primer SAN all-flash. La SAN 2U se basa en alta disponibilidad con redundancia integrada y ofrece seis 9 de disponibilidad. El XF2026D tiene la tecnología Cache-to-Flash que mueve los datos almacenados en caché a un módulo M.2 en caso de un corte de energía. En general, el dispositivo está diseñado para ser fácil de usar e implementar, fácil de integrar en cualquier entorno y asequible independientemente del tamaño de la empresa.
En nuestro análisis de carga de trabajo de la aplicación, el XCubeFAS XF2026D pudo alcanzar una puntuación total de 12,635.5 5 TPS con una latencia promedio de 2026 ms en SQL Server. Esto está en línea con las dos versiones anteriores que probamos. En Sysbench, el XF12,983.8D eclipsó a la versión anterior con un rendimiento transaccional de 8 22,484.4 TPS para 16 VM, 29,893.9 32 TPS para 2026 VM y 19.7 8 TPS para 23 VM. La latencia promedio de Sysbench vio el XF16D con 36 ms para 32 VM, 34.8 ms para 8 VM y 41.7 ms para 16 VM. Y la latencia del peor de los casos de Sysbench mostró que la nueva SAN fue ligeramente mejor con 65.6 ms para 32 VM, XNUMX ms para XNUMX VM y XNUMX ms para XNUMX VM.
Nuestras cargas de trabajo de VDBench mostraron un sólido rendimiento de la SAN. Equipada con unidades SAS, la SAN pudo alcanzar algunos aspectos destacados, como 403 4 IOPS en lectura 270K, 4 7.8 IOPS en escritura 64K, 4.4 GB/s en lectura secuencial a 64 K y 363 GB/s en escritura secuencial a 328 K. Para nuestra prueba de SQL, la SAN alcanzó 90 10 IOPS, 297 80 IOPS en 20-294 y 327 90 IOPS en 10-297. Las pruebas de Oracle también mostraron un sólido rendimiento con 80 20 IOPS, 248 152 IOPS en 1-1.91 y 7.2 XNUMX IOPS en XNUMX-XNUMX. La SAN tenía potentes botas de clones de VDI con XNUMX XNUMX IOPS en Full y XNUMX XNUMX IOPS en Linked. La latencia siempre comenzaba por debajo de XNUMX ms y tenía picos que oscilaban entre XNUMX ms y XNUMX ms
Suscríbase al boletín de StorageReview