Aquellos en el mercado de un arreglo de almacenamiento all-flash de alto rendimiento se encontrarán bien con el AFF A800 de NetApp. El arreglo NVMe de extremo a extremo ofrece un rendimiento masivo y proviene de la sólida línea de arreglos AFF de NetApp. Anteriormente revisamos el A800 a través de Fibre Channel y descubrimos que es una bestia de rendimiento que obtuvo nuestro premio Editor's Choice. Para esta revisión, estamos probando la misma matriz solo que esta vez aprovechando NVMe over Fabrics (NVMeOF).
Aquellos en el mercado de un arreglo de almacenamiento all-flash de alto rendimiento se encontrarán bien con el AFF A800 de NetApp. El arreglo NVMe de extremo a extremo ofrece un rendimiento masivo y proviene de la sólida línea de arreglos AFF de NetApp. Anteriormente revisamos el A800 a través de Fibre Channel y descubrimos que es una bestia de rendimiento que obtuvo nuestro premio Editor's Choice. Para esta revisión, estamos probando la misma matriz solo que esta vez aprovechando NVMe over Fabrics (NVMeOF).
Dado que esta es una revisión de seguimiento, no entraremos en cosas como el diseño y la construcción, las especificaciones o la administración. Nuestro repaso inicial va bien en cada una de esas áreas. La configuración para la revisión es esencialmente la misma con una interfaz de red diferente para ver la diferencia de rendimiento. Cabe señalar que esto no es exactamente una comparación de manzanas con manzanas. El arreglo ofrece varias conectividades para las necesidades de diferentes usuarios y estamos revisando diferentes tipos para darles a esos usuarios una idea de qué esperar con qué opción de conectividad.
Presentado por primera vez en 2014, NVMeOF es el concepto de usar un protocolo de transporte a través de una red en lugar de simplemente aprovechar los dispositivos NVMe a través del bus PCIe. NVM Express, Inc. publicó el estándar para NVMeOF en 2016. NVMeOF permite que el host NVMe se conecte a un almacenamiento de destino NVMe mientras mantiene baja la latencia. La idea general es obtener más rendimiento sin aumentar sustancialmente la latencia. Hasta la fecha, ha habido muchos enfoques de diferentes proveedores sobre qué protocolo se admite, o si se puede ejecutar en múltiples modos al mismo tiempo. El AFF A800 equipado con ONTAP es capaz de ejecutar CIFS, NFS, iSCSI, FCP y FC NVMeOF al mismo tiempo, todo con apenas sudar. No todas las plataformas están hechas de esta manera, incluso NetApp EF600 (diseñado con objetivos ligeramente diferentes en mente) puede ejecutarse en FCP o FC NVMeOF, pero no en ambos al mismo tiempo.
Configuración de rendimiento
La configuración de nuestro AFF A800 de NetApp incluía 8 puertos FC de 32 Gb con 24 SSD NVMe de 1.92 TB instalados. De los 24 SSD de 1.92 TB implementados en nuestro A800, los dividimos en dos agregados RAID-DP, con 23 SSD en uso y dos medias particiones como reserva activa. La mitad de cada SSD se divide en ambos controladores, por lo que cada controlador puede utilizar el rendimiento de todos los SSD instalados. El arreglo se conectó mediante 32 Gb a través de dos conmutadores Brocade G620, que luego tenían 16 enlaces de 32 Gb a 12 servidores Dell PowerEdge R740xd que ejecutaban SLES 12 SP4.
Cada servidor se aprovisionó con 2 LUN de 350 GB, lo que supone un espacio de almacenamiento total de 8.4 TB.
Performance
Cuando se trata de comparar matrices de almacenamiento, las pruebas de aplicaciones son las mejores y las pruebas sintéticas ocupan el segundo lugar. Si bien no es una representación perfecta de las cargas de trabajo reales, las pruebas sintéticas ayudan a los dispositivos de almacenamiento de referencia con un factor de repetibilidad que facilita la comparación de manzanas con manzanas entre las soluciones de la competencia. Estas cargas de trabajo ofrecen una gama de diferentes perfiles de prueba que van desde pruebas de "cuatro esquinas", pruebas comunes de tamaño de transferencia de bases de datos, así como capturas de seguimiento de diferentes entornos VDI. Todas estas pruebas aprovechan el generador de cargas de trabajo vdBench común, con un motor de secuencias de comandos para automatizar y capturar resultados en un gran clúster de pruebas informáticas. Esto nos permite repetir las mismas cargas de trabajo en una amplia gama de dispositivos de almacenamiento, incluidos arreglos flash y dispositivos de almacenamiento individuales.
perfiles:
- Lectura aleatoria 4K: 100 % de lectura, 128 subprocesos, 0-120 % de iorate
- Escritura aleatoria 4K: 100 % de escritura, 64 subprocesos, 0-120 % de iorate
- Lectura secuencial de 64 K: 100 % de lectura, 16 subprocesos, 0-120 % de iorate
- Escritura secuencial de 64 K: 100 % de escritura, 8 subprocesos, 0-120 % de iorate
- Base de datos sintética: SQL y Oracle
La principal ventaja de rendimiento de NVMeOF con el A800 es un aumento del rendimiento de lectura y una latencia más baja. Con nuestras pruebas anteriores centradas en el rendimiento dentro de VMware mediante el protocolo FCP, con VMDK conectados a varias máquinas virtuales, nuestras pruebas de NVMeOF se centran en el rendimiento completo. Por lo tanto, no puede hacer una comparación directa uno a uno con nuestros datos existentes. También es importante tener en cuenta que para realizar pruebas consistentes en todos nuestros arreglos de almacenamiento, mantuvimos el mismo número de subprocesos para cada arreglo de almacenamiento. Con la prueba de NVMeOF en el A800, notamos algunas áreas donde nuestra prueba terminó antes de un aumento significativo de la latencia. En primer lugar, esto muestra que la plataforma está funcionando excepcionalmente bien, impulsando una latencia baja con estadísticas de rendimiento impresionantes. Sin embargo, la desventaja es que se dejó una cierta cantidad de rendimiento sobre la mesa. NetApp ha declarado que, en determinadas circunstancias, el A800 puede generar un rendimiento aún mayor que el que medimos.
A partir de la lectura 4K, el A800 con NVMeOF comenzó con 217,460 196.8 IOPS con una latencia de solo 2,184,220 µs y alcanzó un máximo de 1.22 XNUMX XNUMX IOPS con una latencia de XNUMX ms.
Para las escrituras de 4K, la matriz comenzó con 48,987 196 IOPS con una latencia de 465,445 µs y alcanzó un máximo de 2.44 XNUMX IOPS con una latencia de XNUMX ms.
Lo siguiente son nuestras cargas de trabajo secuenciales de 64K. Para una lectura de 64K, el A800 pudo mantener una latencia de submilisegundos en todo momento con un rendimiento máximo de alrededor de 403K IOPS o 25GB/s con una latencia de 800µs antes de una ligera caída.
Para escribir 64K, el A800 con NVMeOF comenzó con fuerza y se mantuvo por debajo de 1 ms hasta aproximadamente 110 7 IOPS o aproximadamente 120,314 GB/s y alcanzó un máximo de 7.52 1.48 IOPS o XNUMX GB/s con una latencia de XNUMX ms.
Nuestro próximo lote de puntos de referencia son nuestras pruebas de SQL. En SQL, el A800 se mantuvo por debajo de 1 ms con un pico impresionante de 1,466,467 496.6 XNUMX IOPS con una latencia de solo XNUMX µs.
Para SQL 90-10, el A800 con NVMeOF tuvo otra racha impresionante de rendimiento de latencia de submilisegundos, comenzando con 139,989 1,389,645 IOPS y alcanzando un máximo de 539.6 XNUMX XNUMX IOPS con una latencia de solo XNUMX µs.
SQL 80-20 una vez más vio una latencia de submilisegundos en todo momento con un pico de 1,108,068 658 XNUMX IOPS a una latencia de XNUMX µs.
Pasando a nuestras cargas de trabajo de Oracle, el A800 con NVMeOF se mantuvo por debajo de 1 ms con una puntuación máxima de 1,057,570 860.4 XNUMX IOPS a una latencia de XNUMX µs.
Oracle 90-10 vio que el A800 comenzaba con 118,586 1,140,178 IOPS y alcanzaba un máximo de 397.6 XNUMX XNUMX IOPS con una latencia de XNUMX µs.
En Oracle 80-20, vimos que el A800 una vez más tuvo una latencia inferior al milisegundo desde 104,206 1,003,577 IOPS hasta un máximo de 468.8 XNUMX XNUMX IOPS con una latencia de XNUMX µs.
Conclusión
El AFF A800 de NetApp es un arreglo all-flash de 4U que admite acceso a archivos y bloques, así como soporte NVMe de extremo a extremo. El A800 está dirigido a aquellos que tienen las cargas de trabajo más exigentes que necesitan mucho rendimiento y mucho almacenamiento, con una capacidad efectiva máxima de 316.8 PB. Mientras que nuestro primer reseña premiada Al observar esta matriz sobre el canal de fibra tradicional, esta revisión aprovecha NVMe sobre Fabrics para ver cómo se desarrollaron las cosas.
Para nuestras cargas de trabajo de VDBench, NetApp AFF A800 ofreció un impresionante conjunto de números en todos los ámbitos. En nuestra ejecución básica de cuatro esquinas, vimos un rendimiento máximo aleatorio de 4K de 2.2 millones de IOPS de lectura y 465 64 IOPS de escritura. En nuestras cargas de trabajo secuenciales de 25 7.52, vimos 1.5 GB/s de lectura y 90 GB/s de escritura. En nuestras cargas de trabajo SQL vimos picos de 10 millones de IOPS, SQL 1.4-80 vio 20 millones de IOPS y SQL 1.1-1.1 vio 90 millones de IOPS. Nuestras pruebas de Oracle mostraron impresionantes 10 millones de IOPS, Oracle 1.14-80 nos dio 20 millones de IOPS y Oracle 1-1 tuvo XNUMX millón de IOPS. Más impresionante fue que las cargas de trabajo de SQL y Oracle permanecieron por debajo de XNUMX ms de latencia en todo momento.
Aunque vimos excelentes resultados con el A800 configurado para NVMeOF, especialmente en términos de rendimiento de lectura, vale la pena señalar que el sistema aún tiene más para ofrecer. En nuestras pruebas, todos los servidores de generación de carga estaban basados en hipervisores de VMware, lo que agrega otra capa de complejidad. Además, VMware no es totalmente compatible con NVMeOF en este momento. Para las empresas convencionales que desean aprovechar al máximo NVMeOF con los sistemas de NetApp, el sistema bare metal impulsará el mejor rendimiento. Dicho esto, muchos querrán usar los sistemas ONTAP de NVMeOF en una configuración híbrida, utilizando estructuras y conectividad de canal de fibra estándar. En cualquier caso, NetApp continúa liderando el grupo en términos de adopción e implementación de tecnologías de última generación para asegurarse de que sus arreglos estén listos para lo que necesiten sus clientes, cuando lo necesiten. El A800 funciona especialmente bien aquí, por lo que le otorgamos una Elección del editor en nuestra revisión inicial. NVMeOF agrega un impulso de rendimiento masivo que debería atraer a las empresas que requieren el máximo rendimiento y una latencia de microsegundos para sus aplicaciones críticas para el negocio.