El año pasado publicamos un serie detallada de reseñas sobre VSAN 6.0 en una configuración híbrida. En febrero de este año, VMware lanzó VSAN 6.2, que trajo al mercado la reducción de datos a través de la deduplicación y la compresión, así como una serie de otras características. La reducción de datos es un gran paso adelante para VSAN, ya que aprovecha el aumento masivo de la adopción de flash, gracias en gran parte a la caída de los precios y las opciones de alta calidad. Cuando VSAN está habilitado en una configuración all-flash, los usuarios que aprovechan la reducción de datos pueden triplicar (o más) efectivamente su capacidad según las cargas de trabajo, lo que realmente aporta el valor de flash para todos, desde ROBO hasta la empresa.
El año pasado publicamos un serie detallada de reseñas sobre VSAN 6.0 en una configuración híbrida. En febrero de este año, VMware lanzó VSAN 6.2, que trajo al mercado la reducción de datos a través de la deduplicación y la compresión, así como una serie de otras características. La reducción de datos es un gran paso adelante para VSAN, ya que aprovecha el aumento masivo de la adopción de flash, gracias en gran parte a la caída de los precios y las opciones de alta calidad. Cuando VSAN está habilitado en una configuración all-flash, los usuarios que aprovechan la reducción de datos pueden triplicar (o más) efectivamente su capacidad según las cargas de trabajo, lo que realmente aporta el valor de flash para todos, desde ROBO hasta la empresa.
A medida que continuamos con nuestra revisión de VSAN, aprovechamos el mismo clúster Dell PowerEdge R730xd que usamos en la revisión híbrida anterior. Hemos realizado actualizaciones en la plataforma, incluido el BIOS, el firmware y ESXi para que sea compatible con VSAN 6.2. Sin embargo, uno de los cambios más importantes es reemplazar nuestros HDD y SSD existentes con una nueva configuración all-flash, cortesía de Toshiba. Al aprovechar algunas de las SSD SAS3 más rápidas del mercado, podemos centrar toda nuestra atención en la propia VSAN, sin que el hardware la detenga.
Dell PowerEdge R730xd VMware All-Flash VSAN Especificaciones
- Servidores Dell PowerEdge R730xd (x4)
- CPU: Ocho Intel Xeon E5-2697 v3 2.6GHz (14C/28T)
- Memoria: 64 x 16GB DDR4 RDIMM
- SSD:
- Caché: 16 x 400 GB Toshiba PX04 SAS3 de escritura intensiva
- Capacidad: 80 x 960 GB Toshiba PX04 Lectura intensiva SAS3
- Redes: 4 x Intel X520 DP 10 Gb DA/SFP+, + I350 DP 1 Gb Ethernet
- Capacidad de almacenamiento: 69.86TB
Las unidades Toshiba utilizadas para esta revisión fueron las Toshiba PX04S modelos. En nuestra revisión anterior, descubrimos que los modelos PX04S eran los SSD empresariales SAS más rápidos que hemos probado hasta ahora. El PX04S también era el SSD SAS de doble puerto de mayor capacidad cuando se revisó. La serie PX04S viene en múltiples niveles de resistencia, que van desde alta resistencia a baja resistencia con modelos de resistencia media y económica también. Para esta revisión, completamos el Dell PowerEdge R730xd con dieciséis unidades de escritura intensiva de 400 GB (PX04SHB040) y ochenta unidades de resistencia de valor de 960 GB (PX04SVB096). Las unidades de escritura intensiva cuentan con hasta 25DWPD y las unidades de resistencia de valor hasta 3DWPD. En comparación, en la configuración híbrida con los mismos servidores, el nivel de caché se componía de cuatro SSD Toshiba PX02 de 800 GB por host, lo que duplicaba la capacidad del nivel de caché.
Especificaciones de la unidad de escritura intensiva PX04SHB040 de 400 GB:
- Desempeno
- Lectura secuencial sostenida de 64 KiB: 1,900 MiB/s
- Escritura secuencial sostenida de 64KiB: 850MiB/s
- Lectura aleatoria sostenida de 4KiB: 270 XNUMX IOPS
- Escritura aleatoria sostenida de 4KiB: 125 XNUMX IOPS
- DPPD: 25
Especificaciones de la unidad de valor y resistencia PX04SVB096 de 960 GB:
- Desempeno
- Lectura secuencial sostenida de 64 KiB: 1,900 MiB/s
- Escritura secuencial sostenida de 64KiB: 850MiB/s
- Lectura aleatoria sostenida de 4KiB: 270 XNUMX IOPS
- Escritura aleatoria sostenida de 4KiB: 60 XNUMX IOPS
- DPPD: 3
Análisis de la carga de trabajo de la aplicación
Para esta revisión, reemplazamos Dell PowerEdge R730xd VMware VSAN con todos los SSD Toshiba PX04 SAS3. Los primeros puntos de referencia consisten en la Rendimiento de MySQL OLTP a través de SysBench y Rendimiento de OLTP de Microsoft SQL Server con una carga de trabajo TPC-C simulada.
Cada máquina virtual con SQL Server está configurada con dos discos virtuales, uno de 100 GB para el arranque y otro de 500 GB para la base de datos y los archivos de registro. Desde la perspectiva de los recursos del sistema, configuramos cada VM con 16 vCPU, 64 GB de DRAM y aprovechamos el controlador LSI Logic SAS SCSI. Estas pruebas están diseñadas para monitorear el rendimiento de una aplicación sensible a la latencia en el clúster con una carga de cómputo y almacenamiento moderada, pero no abrumadora.
Configuración de prueba de SQL Server (por VM)
- Windows Server 2012 R2
- Huella de almacenamiento: 600 GB asignados, 500 GB utilizados
- SQL Server 2014
- Tamaño de la base de datos: escala 1,500
- Carga de clientes virtuales: 15,000
- Búfer RAM: 48GB
- Duración de la prueba: 3 horas
- 2.5 horas de preacondicionamiento
- Período de muestra de 30 minutos
En la prueba TPC-C de SQL Server en plataformas hiperconvergentes, observamos el equilibrio de la carga de trabajo en el clúster en modo híbrido, modo all-flash (AF) y reducción de datos all-flash (AF DR). La versión AF brindó un rendimiento ligeramente mejor que el híbrido con máquinas virtuales individuales que se ejecutan de 3,112.4 TPS a 3,130.4 TPS, con una puntuación total de 12,472.8 TPS, la puntuación más alta en general. La configuración de recuperación ante desastres se encontraba en el extremo inferior de las configuraciones de prueba, con máquinas virtuales individuales funcionando de 2,982.1 TPS a 3,009.6 TPS, con una puntuación total de 11,969.1 XNUMX TPS.
Para la prueba TPC-C de SQL Server, la variable a la que prestamos más atención es la latencia promedio. Las pequeñas brechas en el desempeño transaccional no mostrarán la historia completa. En nuestra prueba de latencia promedio, vimos que el puntaje más alto de la versión AF, 64 ms, era el mismo que el peor puntaje del híbrido. El AF también tuvo una puntuación media de 53 ms. Una vez más, la configuración DR se colocó en la parte inferior del paquete, con un mínimo de 236 ms, un máximo de 278 ms y un promedio de 261 ms.
Rendimiento de Sysbench
Cada máquina virtual Sysbench está configurada con tres discos virtuales: uno para arranque (~92 GB), uno con la base de datos preconstruida (~447 GB) y el tercero para la base de datos bajo prueba (400 GB). Desde la perspectiva de los recursos del sistema, configuramos cada VM con 16 vCPU, 64 GB de DRAM y aprovechamos el controlador LSI Logic SAS SCSI.
Configuración de prueba de Sysbench (por VM)
- CentOS 6.3 de 64 bits
- Huella de almacenamiento: 1 TB, 800 GB utilizados
- Percona XtraDB 5.5.30-rel30.1
- Tablas de base de datos: 100
- Tamaño de la base de datos: 10,000,000
- Subprocesos de la base de datos: 32
- Búfer RAM: 24GB
- Duración de la prueba: 12 horas
- 6 horas preacondicionamiento 32 hilos
- 1 hora 32 hilos
- 1 hora 16 hilos
- 1 hora 8 hilos
- 1 hora 4 hilos
- 1 hora 2 hilos
Con Sysbench OLTP observamos la configuración de 8VM para cada uno. El AF se impuso ligeramente, superando al híbrido con 4,273 TPS a 4,259 TPS. La configuración DR obtuvo 3,625 TPS.
Mirando la latencia promedio, es un poco sorprendente ver que el AF no fue considerablemente más alto que el híbrido, 60.1ms a 60.3ms respectivamente. El DR obtuvo una puntuación mucho más alta con una latencia de 71 ms.
La latencia promedio del percentil 99 nuevamente mostró una pequeña disminución en la latencia para el AF en comparación con el híbrido, 126ms a 131ms respectivamente. El DR tenía una latencia mucho más alta a 212 ms.
Análisis de rendimiento de VMmark
Al igual que con todos nuestros análisis de rendimiento de aplicaciones, intentamos mostrar cómo funcionan los productos en un entorno de producción real en comparación con las afirmaciones de rendimiento de la empresa. Entendemos la importancia de evaluar el almacenamiento como un componente de sistemas más grandes, y lo que es más importante, cuán receptivo es el almacenamiento cuando interactúa con aplicaciones empresariales clave. En esta prueba usamos el Benchmark de virtualización VMmark de VMware en un entorno multiservidor.
VMmark, por su propio diseño, es un punto de referencia que requiere muchos recursos, con una amplia combinación de cargas de trabajo de aplicaciones basadas en VM que enfatizan la actividad de almacenamiento, red y computación. Cuando se trata de probar el rendimiento de la virtualización, casi no hay mejor punto de referencia, ya que VMmark analiza muchas facetas, que abarcan E/S de almacenamiento, CPU e incluso el rendimiento de la red en entornos de VMware.
Aquí observamos el desglose del rendimiento general y de la aplicación de VMmark en nuestras configuraciones de VSAN híbridas y all-flash con reducción de datos.
Con capacidad para 18 mosaicos con compresión y deduplicación habilitadas, VSAN es el sistema de almacenamiento de mayor rendimiento con reducción de datos que hemos probado hasta la fecha. En evaluaciones comparativas anteriores, alcanzamos un máximo de 8 mosaicos con un dispositivo de desduplicación dedicado frente a un arreglo all-flash.
En cuanto a los recursos de la CPU en uno de los hosts durante esta ejecución de VSAN All-Flash de 18 mosaicos, el sistema flotó alrededor del 80-85 % del uso de la CPU. Entonces, si bien el aspecto del almacenamiento no pudo impulsar más, el clúster aún tenía algunos recursos sobrantes.
Configuración de prueba de HCIbench
- 16 máquinas virtuales
- 10 VMDK por máquina virtual
- VMDK de 10 GB (espacio de 1.6 TB)
- VMDK de 50 GB (espacio de 8 TB)
- VMDK de 100 GB (espacio de 16 TB)
- Inicialización de almacenamiento de escritura completa
- Intervalos de prueba de 1.5 horas (preacondicionamiento de 30 minutos, período de muestra de prueba de 60 minutos)
Para probar las configuraciones híbridas y AF DR de nuestro VMware VSAN, implementamos dos configuraciones diferentes para nuestros perfiles de carga de trabajo. Estos incluyeron una huella de 1.6 TB (totalmente en caché para el híbrido), 800 GB (totalmente en caché para AF DR) y 16 TB (derramándose fuera del caché) para mostrar cómo responde la plataforma a medida que crecen los datos calientes. Estos tamaños se pueden ajustar para cada plataforma en función de la cantidad de flash que se aprovisione para la memoria caché o la organización en niveles.
Perfiles de carga de trabajo de HCIbench de StorageReview
- 4K Aleatorio 100% de lectura
- 4K aleatorio 100% escritura
- 8K Aleatorio 70% lectura / 30% escritura
- 32K Secuencial 100% de lectura
- 32K Secuencial 100% de escritura
La primera prueba de HCIbench analiza el rendimiento aleatorio máximo de la plataforma VMware VSAN con un perfil de carga de trabajo 4K completamente aleatorio. Completamente calentado con los datos movidos a la memoria caché, el híbrido nos dio 888 MB/s de lectura y 249 MB/s de escritura con un espacio de 1.6 TB en la memoria caché. El AF DR, con un espacio de 800 GB en caché, nos dio 1,414 MB/s de lectura y 160 MB/s de escritura. Con el conjunto de datos de hasta 16 TB (derramándose fuera de la memoria caché), el híbrido nos dio 26 MB/s de lectura y 56 MB/s de escritura, mientras que AF DR tuvo un rendimiento sorprendentemente más fuerte de 423 MB/s de lectura y 151 MB/s de escritura.
A continuación, observamos el pico de E/S en el mismo perfil de 4k, y aquí vimos resultados similares. El conjunto de datos de 1.6 TB en caché hizo que el híbrido mostrara resultados de 227,342 63,868 IOPS de lectura y 800 361,923 IOPS de escritura, mientras que el conjunto de datos de 41,031 GB para AF DR en caché tuvo resultados de 16 6,747 IOPS de lectura y 14,404 108,365 IOPS de escritura. El conjunto de datos de 38,778 TB hizo que el híbrido nos diera XNUMX IOPS de lectura y XNUMX XNUMX IOPS de escritura y el AF DR tenía XNUMX XNUMX IOPS de lectura y XNUMX XNUMX IOPS de escritura.
La siguiente métrica analiza la latencia promedio del perfil de carga de trabajo 4K completamente aleatorio. La huella de 1.6 TB en caché para el híbrido tenía una latencia de lectura de 1 ms y una latencia de escritura de 4 ms. La huella de 800 GB en caché para AF DR tenía una latencia de lectura de 0.88 ms y una latencia de escritura de 8.29 ms. Con el conjunto de datos de 16 TB saliendo de la memoria caché, obviamente habrá una discrepancia mucho mayor en los resultados, ya que el híbrido se derramará en discos giratorios de 10 47 que siempre tienen una latencia más alta, en comparación con el DR de AF que permanece en unidades flash. Aquí, el híbrido nos dio latencias de 23 ms de lectura y 1.65 ms de escritura, mientras que AF DR nos dio latencias de 4.66 ms de lectura y XNUMX ms de escritura.
Nuestra próxima prueba analiza un perfil de datos de 8K más grande con una combinación de 70 % de actividad de lectura y 30 % de actividad de escritura. Aquí, el híbrido en caché (con un espacio de 1.6 TB) alcanza los 947.9 MB/s. El AF DR en caché (con 800 GB) tuvo un rendimiento de 631.5 MB/s. Con el conjunto de datos más grande de 16 TB saliendo de la memoria caché, el rendimiento del híbrido se redujo a 67 MB/s, mientras que AF DR vio una caída a 530 MB/s.
A continuación, analizamos el rendimiento de E/S de la misma carga de trabajo de 8k 70/30. El espacio híbrido de 1.6 TB registró 121,329 80,834 IOPS, mientras que AF DR registró 16 8,584 IOPS. Una vez que el conjunto de datos de 67,882 TB se derramó fuera del caché, ambas configuraciones vieron una caída en el rendimiento con el híbrido ahora registrando XNUMX IOPS y el AF DR registrando XNUMX XNUMX IOPS.
Al observar la latencia promedio de 8k 70/30, vimos una ubicación similar a la anterior. Dentro de la memoria caché, el híbrido tenía una latencia de 2 ms y el AF DR tenía una latencia de 3.94 ms. Con el gran conjunto de datos saliendo de la memoria caché, el híbrido saltó hasta 37 ms, mientras que AF DR en realidad bajó a 2.63 ms.
La última carga de trabajo cambia a un enfoque de ancho de banda máximo, que consiste en un perfil de lectura y escritura secuencial de 32K. El rendimiento en caché del híbrido mostró 2,699 MB/s de lectura y 1,193 MB/s, y el rendimiento en caché del AF DR mostró 1,971 MB/s de lectura y 1,353 MB/s de escritura. Con el conjunto de datos más grande de 16 TB, vimos 2,490 MB/s de lectura y 1,082 MB/s de escritura con el híbrido y 975 MB/s de lectura y 495 MB/s de escritura con AF DR.
El rendimiento de E/S mostró resultados similares, con el híbrido brindando mayormente un mejor rendimiento que el AF DR. En caché, el híbrido tuvo un rendimiento de 86,379 38,184 IOPS de lectura y 63,068 43,302 IOPS de escritura, mientras que AF DR tuvo un rendimiento de 79,703 34,611 IOPS de lectura y 31,205 15,830 IOPS de escritura. Con el conjunto de datos más grande fuera de la memoria caché, vimos que el híbrido tenía XNUMX XNUMX IOPS de lectura y XNUMX XNUMX IOPS de escritura, mientras que AF DR tenía XNUMX XNUMX IOPS de lectura y XNUMX XNUMX IOPS de escritura.
Con una latencia promedio, el híbrido nos dio 3 ms de lectura y 8 ms de escritura en la memoria caché y 4 ms de lectura y 9 ms de escritura fuera de la memoria caché. El AF DR, por otro lado, nos dio 5.29 ms de lectura y 7.46 ms de escritura en caché y 5.78 ms y 11.47 ms de escritura fuera de caché.
Conclusión
VMware VSAN 6.2 les brinda a las organizaciones la oportunidad de aprovechar flash de maneras nuevas y emocionantes, lo que genera ganancias tanto en eficiencia como en rendimiento. Los aspectos más destacados de la nueva versión incluyen la codificación de borrado, la compatibilidad con RAID5, la deduplicación y la compresión, todo lo cual conduce claramente a aprovechar al máximo el flash desde el punto de vista de la capacidad. Si bien los beneficios de la reducción de datos variarán según la carga de trabajo y la configuración, es razonable esperar una ganancia de capacidad de 3 a 6 veces. Básicamente, esto significa que una unidad de 1 TB relativamente asequible es capaz de entregar de 3 a 6 TB. Este beneficio por sí solo hace que 6.2 sea una actualización digna y le da a flash un gran lugar para sobresalir.
Cuando se trata de rendimiento, la configuración all-flash necesita algunos matices para explicarse correctamente. VSAN 6.2 no ofrece ganancias exponenciales en comparación con la configuración híbrida que probamos anteriormente. Hay un par de razones fundamentales para esto. En primer lugar, VSAN tiene un solo subproceso por grupo de discos, lo que limita su capacidad para aprovechar todas las unidades flash con la mayor eficacia posible. Esta es una decisión de diseño ya que el énfasis de VMware está en minimizar la sobrecarga de VSAN a nivel del sistema; esta puede ser el área que VMware opte por reequilibrar en versiones futuras. En segundo lugar, cuando habilitamos las funciones de reducción de datos, vemos un rendimiento más bajo en la configuración all-flash que en la híbrida. En la superficie, esto puede parecer un problema, pero para cualquiera que tenga experiencia con la reducción de datos, hay una penalización de rendimiento enorme en todos los casos que hemos visto. Muchas veces hemos visto un impacto de más del 80 % en los gastos generales con las soluciones de HCI de la competencia. Este contexto es importante; ya que VSAN all-flash con reducción de datos habilitada realmente hizo un muy buen trabajo a este respecto, igualando el puntaje VMmark de 18 mosaicos que nuestra configuración híbrida anterior era capaz de lograr. Además, VMware indica que la mayoría de los clientes que compran configuraciones todo flash se ejecutan con funciones de reducción de datos habilitadas, lo que hace que la eficiencia de VSAN sea muy importante.
Actualmente, la reducción de datos es una configuración de todo o nada, donde se aplica a todo el almacén de datos; VMware hace esto para maximizar la efectividad de la deduplicación. El impacto de los recursos del servidor de reducción de datos se contrarresta con la expansión de la capacidad, que es un punto de venta crítico en este caso. En nuestra configuración de cuatro nodos y 24 unidades por servidor (que es muy común para VSAN), eso significa que se pueden usar menos SSD o más pequeños para igualar o superar la capacidad de HDD. Esto, por supuesto, se suma a todos los demás beneficios que ofrecen los SSD, como un menor consumo de energía, menores necesidades de refrigeración o tolerancias operativas más amplias.
Para las pruebas, ejecutamos nuestra variedad de pruebas de aplicaciones, incluido nuestro rendimiento OLTP de MySQL y Microsoft SQL Server, así como el punto de referencia de virtualización VMmark de VMware y HCIbench. Con SQL Server, la versión all-flash fue la de mejor rendimiento con una puntuación total de 12,472.8 TPS. El all-flash (AF) con reducción de datos (AF DR) también funcionó bien con una puntuación total de 11,969.1 TPS. Con la latencia de SQL Server, AF VSAN tuvo la latencia general más baja con una puntuación total de 53 ms, aproximadamente un 30 % más baja que la versión híbrida. Como era de esperar, AF DR VSAN tuvo una latencia mucho más alta con un total de 261 ms. Con nuestra prueba SysBench, es interesante notar aquí que el AF funcionó un poco mejor que la versión híbrida (4,273 a 4,259 TPS, latencia promedio escalada de 60.1ms a 60.3ms y latencia en el peor de los casos de 126ms a 131ms). Con la reducción de datos habilitada, AF DR VSAN experimentó una caída en el rendimiento, pero aún tenía transacciones escaladas por segundo de 3,625, una latencia promedio escalada de 71 ms y una latencia en el peor de los casos de 212 ms.
Con VMmark y reducción de datos habilitados, AF DR VSAN pudo alcanzar 18 mosaicos (el mejor sistema de reducción de datos anterior solo alcanzó 8 mosaicos). Eso convierte a AF DR VSAN en el arreglo de almacenamiento de mayor rendimiento con reducción de datos en nuestra prueba VMmark. La prueba final que analizamos fue HCIbench que, si bien no muestra las capacidades máximas de un sistema, nos brinda una buena métrica para comparar el AF DR VSAN con el VSAN híbrido. En nuestra prueba HCIbench de 4k, AF DR VSAN superó a la versión híbrida tanto en la caché como en las pruebas de derrame fuera de la caché, particularmente en las lecturas. El AF DR pudo alcanzar números de lectura de 4k de hasta 1,1414 MB/s, 361,923 IOPS y una latencia promedio de 0.9 ms. Mirando nuestras pruebas de 8k 70/30, el híbrido funcionó mejor en caché y AF DR funcionó mucho mejor una vez que se derramó fuera de caché. En nuestras pruebas secuenciales de 32k, la VSAN híbrida funcionó mejor tanto dentro como fuera de la memoria caché que la VSAN AF DR.
Hemos hecho muchas comparaciones entre nuestra configuración VSAN híbrida inicial con una implementación all-flash en esta revisión. El híbrido se mantuvo bien en las pruebas iniciales e incluso hoy en día todavía muestra fuerza. Si los niveles de caché son los mismos en una configuración híbrida y toda la configuración flash y los conjuntos de trabajo permanecen dentro de la caché, el rendimiento de los dos será relativamente similar. Sin embargo, la configuración todo flash se beneficia de todas las nuevas funciones de 6.2, además de las ventajas generales que ofrece flash. Además, la presión a la baja sobre los precios de las unidades SSD, combinada con la reducción de datos, puede incluso hacer que la VSAN all-flash sea más rentable por TB que la híbrida.
Ventajas
- La plataforma de mayor rendimiento con reducción de datos que hemos probado hasta la fecha
- VSAN 6.2 trae un conjunto de nuevas características que aprovechan los beneficios de flash
- Muy fácil de configurar; cómodo para que los administradores de virtualización administren
Contras
- VSAN separa las unidades para las capas de caché y capacidad; una arquitectura de una sola capa para flash podría ser valiosa
- Los grupos de discos de subproceso único dentro de VSAN limitan el potencial de rendimiento positivo
Resumen Final
VMware VSAN 6.2 agrega una gran cantidad de funciones de eficiencia de datos a la plataforma, lo que permite que las implementaciones de VSAN todo flash brinden una combinación convincente de funciones, rendimiento y capacidad mientras se benefician de todos los beneficios periféricos que trae flash.
Página del producto VMware VSAN
Suscríbase al boletín de StorageReview