Hemos hablado de ello y te provoqué con eso, y ahora finalmente estamos entregando VMware vSAN con Intel Optane Review. Esta será la tercera revisión importante de vSAN que comenzará con una revisión de varias partes de una vSAN 6.0 híbrida seguido por un revisión all-flash de vSAN 6.2. En esta ronda, en lugar de aprovechar nuestro clúster Dell PowerEdge R730xd, estamos utilizando el servidor 2029U-TN24R4T+ 2U y 24 bahías de Supermicro que ejecuta vSAN 6.7. Para el almacenamiento, utilizamos una configuración totalmente NVMe con SSD Intel Optane P4800X (375 GB) para el nivel de escritura, así como SSD Intel P4500 (2 TB) para el nivel de capacidad.
Hemos hablado de ello y te provoqué con eso, y ahora finalmente estamos entregando VMware vSAN con Intel Optane Review. Esta será la tercera revisión importante de vSAN que comenzará con una revisión de varias partes de una vSAN 6.0 híbrida seguido por un revisión all-flash de vSAN 6.2. En esta ronda, en lugar de aprovechar nuestro clúster Dell PowerEdge R730xd, estamos utilizando el servidor 2029U-TN24R4T+ 2U y 24 bahías de Supermicro que ejecuta vSAN 6.7. Para el almacenamiento, utilizamos una configuración totalmente NVMe con SSD Intel Optane P4800X (375 GB) para el nivel de escritura, así como SSD Intel P4500 (2 TB) para el nivel de capacidad.
Para aquellos que no están familiarizados con vSAN, es la infraestructura hiperconvergente de VMware optimizada para vSphere la que se inclina hacia el almacenamiento. En otras palabras, vSAN es un paso en los componentes básicos del centro de datos definido por software que tiene como objetivo simplificar el almacenamiento y la administración del almacenamiento al tiempo que ofrece un mejor rendimiento. vSAN generalmente se vende a través de un programa de certificación conocido como VMware vSAN ReadyNodes que son una combinación de hardware certificado combinado con software de VMware. La mayoría de los principales proveedores de servidores ofrecen configuraciones ReadyNode y algunos también ofrecen vSAN como dispositivo.
Similar a la idea ReadyNode es Select Solutions de Intel. Intel Select Solutions son pilas de hardware y software verificadas que siguen los requisitos establecidos por Intel. Las soluciones entregadas al mercado por los principales proveedores de servidores deben poder replicar o superar el rendimiento de referencia descrito por Intel y deben tener guías de implementación detalladas para los clientes. La configuración que estamos usando para esta revisión entra en esta categoría, específicamente es una solución Intel Select para VMware vSAN. Como su nombre lo indica, la solución está diseñada específicamente para entornos VMware.
La solución Intel Select para VMware vSAN viene en dos configuraciones: una "Base" y una "Plus". Nuestra configuración se encuentra en algún lugar en medio de estas configuraciones; es básicamente una configuración base con CPU mejoradas. Con SSD Optane para el nivel de escritura, nuestros sistemas están diseñados para satisfacer las demandas de latencia de las aplicaciones críticas para el negocio.
Especificaciones de Supermicro 2029U-TN24R4T+:
- Servidores Supermicro 2029U-TN24R4T+ (x4)
- CPU: 2 procesadores Intel Xeon Gold 6152, 2.10 GHz, 22 núcleos
- Memoria: 384 GB de RAM (12 x 32 GB 2,666 MHz DDR4 DIMM)
- Grupos de discos de vSAN, 2 veces por nodo:
- Nivel de caché de vSAN: 2 SSD Intel Optane SSD DC P375X Series NVMe de 4800 GB
- Nivel de capacidad vSAN: 4 SSD NVMe Intel DC serie P2 de 4500 TB
- Networking:
- Adaptador de red convergente Intel Ethernet X710 10/40 GbE (enlace dedicado para vSAN, vMotion/tráfico de VM/gestión dividida en su propia VLAN).
- Desempeno
- 4 KB aleatorio, profundidad de cola 16, L/E: hasta 550/500 XNUMX IOPS
- 4 KB aleatorio, profundidad de cola 16, mixto 70/30 R/W: hasta 500 XNUMX IOPS
- DPPD: 30
- Desempeno
- Lectura secuencial: 3200 MB/s
- Escritura secuencial: 1050MB / s
- Lectura 4K aleatoria: 490,000 XNUMX IOPS
- Escritura 4K aleatoria: 38,000 XNUMX IOPS
- DWPD 0.75 aleatorio; 4.62 secuencial
Análisis de la carga de trabajo de la aplicación
Los primeros puntos de referencia consisten en la Rendimiento de MySQL OLTP a través de SysBench y Rendimiento de OLTP de Microsoft SQL Server con una carga de trabajo TPC-C simulada.
Cada máquina virtual con SQL Server está configurada con dos discos virtuales, uno de 100 GB para el arranque y otro de 500 GB para la base de datos y los archivos de registro. Desde la perspectiva de los recursos del sistema, configuramos cada VM con 16 vCPU, 64 GB de DRAM y aprovechamos el controlador LSI Logic SAS SCSI. Estas pruebas están diseñadas para monitorear el rendimiento de una aplicación sensible a la latencia en el clúster con una carga de cómputo y almacenamiento moderada, pero no abrumadora.
Configuración de prueba de SQL Server (por VM)
- Windows Server 2012 R2
- Huella de almacenamiento: 600 GB asignados, 500 GB utilizados
- SQL Server 2014
- Tamaño de la base de datos: escala 1,500
- Carga de clientes virtuales: 15,000
- Búfer RAM: 48GB
- Duración de la prueba: 3 horas
- 2.5 horas de preacondicionamiento
- Período de muestra de 30 minutos
En la prueba TPC-C de SQL Server en plataformas hiperconvergentes, observamos el equilibrio de la carga de trabajo en el clúster en modo híbrido, modo all-flash (AF) y reducción de datos all-flash (AF DR). Como era de esperar, el modo AF para Optane funcionó ligeramente mejor con una puntuación total de 12,605 3,148.56 TPS con máquinas virtuales individuales que oscilaron entre 3,152.66 TPS y 12,472 TPS. Esto en general es ligeramente mejor que la versión sin Optane de vSAN que tenía una puntuación total de 12,604 3,148.7 TPS. Con DR activado, vimos que Optane alcanzó una puntuación total de 3,153.5 11,969 TPS (solo un TPS menos que con DR desactivado) con máquinas virtuales individuales que oscilan entre XNUMX TPS y XNUMX TPS. Este fue un gran salto con respecto a la versión que no es de Optane con una puntuación total de DR de XNUMX XNUMX TPS. Vale la pena señalar aquí que las CPU Gold son probablemente un factor limitante y con las CPU Platinum, hay más ventajas.
Para la prueba TPC-C de SQL Server, la variable a la que prestamos más atención es la latencia promedio. Las pequeñas brechas en el desempeño transaccional no mostrarán la historia completa. En nuestra prueba de latencia promedio, AF Optane obtuvo una puntuación total de solo 16.5 ms con máquinas virtuales individuales que oscilaron entre 14 ms y 21 ms. Con DR en la versión de Optane, solo saltó a 17 ms para agregar con una latencia de 13 ms a 21 ms para máquinas virtuales individuales. Esta es una gran mejora con respecto a vSAN que no es Optane con una puntuación total de 52.5 ms sin DR y 261 ms con DR activado.
Rendimiento de Sysbench
Cada máquina virtual Sysbench está configurada con tres discos virtuales: uno para arranque (~92 GB), uno con la base de datos preconstruida (~447 GB) y el tercero para la base de datos bajo prueba (400 GB). Desde la perspectiva de los recursos del sistema, configuramos cada VM con 16 vCPU, 64 GB de DRAM y aprovechamos el controlador LSI Logic SAS SCSI.
Configuración de prueba de Sysbench (por VM)
- CentOS 6.3 de 64 bits
- Huella de almacenamiento: 1 TB, 800 GB utilizados
- Percona XtraDB 5.5.30-rel30.1
- Tablas de base de datos: 100
- Tamaño de la base de datos: 10,000,000
- Subprocesos de la base de datos: 32
- Búfer RAM: 24GB
- Duración de la prueba: 12 horas
- 6 horas preacondicionamiento 32 hilos
- 1 hora 32 hilos
- 1 hora 16 hilos
- 1 hora 8 hilos
- 1 hora 4 hilos
- 1 hora 2 hilos
Con Sysbench OLTP observamos la configuración de 8VM para cada uno. El Optane AF tuvo una puntuación total de 10,699 4,273 TPS, más del doble de los 8,668 TPS de la versión que no es de Optane. Con DR activado, Optane alcanzó los 3,625 TPS en comparación con los XNUMX TPS de DR sin Optane.
Para la latencia promedio de Sysbench, vSAN basado en Optane realmente pudo brillar con puntajes agregados de 23.95ms y 29.62ms con DR activado. Esto se compara con los 60.05 ms y 71.05 ms con DR activado que no son de Optane. En ambos casos, el Optane tenía menos de la mitad de la latencia.
La latencia promedio del percentil 99 volvió a mostrar que vSAN basado en Optane es mucho más rápido con puntajes agregados de 42.9 ms y 55.63 ms con DR activado en comparación con los 126.02 ms sin Optane y con DR activado, 212.42 ms.
Análisis de carga de trabajo de VDBench
Cuando se trata de comparar matrices de almacenamiento, las pruebas de aplicaciones son las mejores y las pruebas sintéticas ocupan el segundo lugar. Si bien no son una representación perfecta de las cargas de trabajo reales, las pruebas sintéticas ayudan a los dispositivos de almacenamiento de referencia con un factor de repetibilidad que facilita la comparación de manzanas con manzanas entre las soluciones de la competencia. Estas cargas de trabajo ofrecen una gama de diferentes perfiles de prueba que van desde pruebas de "cuatro esquinas", pruebas comunes de tamaño de transferencia de bases de datos, así como capturas de seguimiento de diferentes entornos VDI. Todas estas pruebas aprovechan el generador de cargas de trabajo vdBench común, con un motor de secuencias de comandos para automatizar y capturar resultados en un gran clúster de pruebas informáticas. Esto nos permite repetir las mismas cargas de trabajo en una amplia gama de dispositivos de almacenamiento, incluidos arreglos flash y dispositivos de almacenamiento individuales.
perfiles:
- Lectura aleatoria 4K: 100 % de lectura, 128 subprocesos, 0-120 % de iorate
- Escritura aleatoria 4K: 100 % de escritura, 64 subprocesos, 0-120 % de iorate
- Lectura secuencial de 64 K: 100 % de lectura, 16 subprocesos, 0-120 % de iorate
- Escritura secuencial de 64 K: 100 % de escritura, 8 subprocesos, 0-120 % de iorate
- Base de datos sintética: SQL y Oracle
- Trazas de clones vinculados y clones completos de VDI
Para la prueba de VDBench, solo veremos la versión Optane Supermicro de vSAN y buscaremos tener DR activado (referido como DR de aquí en adelante) o desactivado (referido como Raw de aquí en adelante). En nuestra primera prueba de lectura aleatoria máxima de 4K, Raw tuvo una latencia de submilisegundos hasta aproximadamente 440 521,599 IOPS y alcanzó un máximo de 4.65 1 IOPS con una latencia de 406,322 ms. El DR comenzó justo por debajo de 7.32 ms antes de pasar y alcanzó un máximo de XNUMX XNUMX IOPS con una latencia de XNUMX ms.
Con una escritura aleatoria de 4K, Raw siguió la línea de 1 ms, pero se mantuvo por debajo de ella hasta aproximadamente 150 202,081 IOPS y alcanzó un máximo de 8.4 114 IOPS con una latencia de 183,947 ms. El DR llegó a alrededor de 1.43 XNUMX IOPS con una latencia de submilisegundos y alcanzó un máximo de XNUMX XNUMX IOPS con una latencia de XNUMX ms antes de caer bruscamente en el rendimiento y aumentar la latencia.
A continuación, analizamos las cargas de trabajo secuenciales de 64 54. Para leer, Raw tuvo un rendimiento de latencia de submilisegundos hasta aproximadamente 3.5 85,319 IOPS o 5.33 GB/s y alcanzó un máximo de 4.69 1 IOPS o 73,583 GB/s con una latencia de 4.6 ms. La DR comenzó por encima de 4.23 ms y alcanzó un máximo de XNUMX XNUMX IOPS o XNUMX GB/s con una latencia de XNUMX ms.
Para escribir 64K, Raw solo llegó a alrededor de 12K IOPS antes de romper 1 ms, alcanzando un máximo de 40,869 2.55 IOPS o 5.58 GB/s con una latencia de 7,303 ms. DR tuvo un rendimiento de latencia de submilisegundos en todo momento, pero alcanzó un máximo de solo 456 IOPS o 623 MB/s con una latencia de XNUMX μs.
Pasando a nuestras cargas de trabajo de SQL, Raw tuvo una latencia de submilisegundos hasta aproximadamente 330 385,159 IOPS y alcanzó un máximo de 2.34 1 IOPS con una latencia de 321,504 ms. El DR se mantuvo por encima de 3.02 ms casi todo el tiempo con un máximo de XNUMX XNUMX IOPS con una latencia de XNUMX ms.
Para SQL 90-10, Raw llegó a alrededor de 300 1 IOPS antes de romper 363,550 ms y alcanzó un máximo de 2.52 299,132 IOPS con una latencia de 3.26. El DR alcanzó un máximo de XNUMX XNUMX IOPS con una latencia de XNUMX ms.
Nuestra prueba de SQL 80-20 vio que Raw se ejecutó a más de 277 1 IOPS a menos de 332,949 ms y alcanzó un máximo de 2.79 285,010 IOPS con una latencia de 3.42 ms. El DR alcanzó un máximo de XNUMX XNUMX IOPS con una latencia de XNUMX ms.
El siguiente paso son nuestras cargas de trabajo de Oracle. Raw tuvo una latencia de submilisegundos hasta alrededor de 262 323,706 IOPS y alcanzó un máximo de 3.27 211,993 IOPS con una latencia de 2.07 ms. El DR alcanzó un máximo de XNUMX XNUMX IOPS con una latencia de XNUMX ms antes de volver a caer en el rendimiento y aumentar la latencia.
Para Oracle 90-10, Raw tuvo un rendimiento de latencia inferior al milisegundo hasta aproximadamente 315 354,590 IOPS y alcanzó un máximo de 1.67 279,356 IOPS con una latencia de 2.24 ms. El DR alcanzó un máximo de XNUMX XNUMX IOPS con una latencia de XNUMX ms.
En la prueba Oracle 80-20, Raw se ejecutó por debajo de 1 ms hasta aproximadamente 273 322,616 IOPS y alcanzó un máximo de 1.85 263,425 IOPS con una latencia de 2.36 ms. DR pudo alcanzar un máximo de XNUMX XNUMX IOPS y una latencia de XNUMX ms.
A continuación, cambiamos a nuestra prueba de clonación de VDI, completa y vinculada. Para VDI Full Clone Boot, Raw tuvo un rendimiento de latencia de submilisegundos hasta aproximadamente 240 293,335 IOPS, llegando a un máximo de 3.3 181,527 IOPS y una latencia de 5.31 ms. El DR alcanzó un máximo de XNUMX XNUMX IOPS y una latencia de XNUMX ms antes de caer.
El inicio de sesión inicial de VDI FC hizo que Raw comenzara cerca de 1 ms y lo pasara rápidamente hasta alcanzar un máximo de 153,513 5.6 IOPS con una latencia de 68 ms antes de una ligera caída. La recuperación ante desastres alcanzó su punto máximo anteriormente con aproximadamente 5.3 XNUMX IOPS y una latencia de XNUMX ms antes de disminuir el rendimiento y aumentar la latencia.
Con VDI FC Monday Login, Raw tuvo una latencia de menos de un milisegundo hasta alrededor de 58 152,660 IOPS y alcanzó un máximo de 3.14 1.64 IOPS con una latencia de 64,201 ms. El DR tuvo una mejor latencia máxima (XNUMX ms), pero solo alcanzó un rendimiento máximo de XNUMX XNUMX IOPS.
Para VDI LC Boot, Raw tuvo una latencia de submilisegundos hasta aproximadamente 170 209,676 IOPS y alcanzó un máximo de 2.21 119,036 IOPS con una latencia de 3.99 ms. Con DR, alcanzó un máximo de XNUMX XNUMX IOPS y una latencia de XNUMX ms.
Pasando al inicio de sesión inicial de VDI LC, Raw se mantuvo por debajo de 1 ms hasta 29 92,951 IOPS y alcanzó un máximo de 2.62 64 IOPS con una latencia de 2.3 ms. Para DR, alcanzó un máximo de poco menos de XNUMX XNUMX IOPS con una latencia de aproximadamente XNUMX ms antes de caer.
Finalmente, con un vistazo a VDI LC Monday Login, Raw logró alrededor de 35K IOPS antes de romper 1ms y alcanzar un máximo de 101,997 IOPS con una latencia de 4.65ms. Con DR, el pico fue de aproximadamente 47 1.82 IOPS con una latencia de XNUMX ms antes de que el rendimiento cayera.
Conclusión
La solución de almacenamiento hiperconvergente de VMware viene en muchas formas y formas; esta iteración en particular utiliza cuatro servidores Supermicro 2029U-TN24R4T+ para computación. Para el almacenamiento, esta versión de vSAN aprovecha Intel Optane en forma de SSD Intel Optane P4800X y almacenamiento NVME en forma de SSD Intel P4500. Esta compilación en particular es parte de las nuevas Select Solutions de Intel, en particular Intel Select Solutions para VMware vSAN. Se puede considerar como un vSAN ReadyNode certificado por VMware e Intel para alcanzar las métricas de rendimiento necesarias.
En cuanto al rendimiento, en nuestro análisis de la carga de trabajo de la aplicación, comparamos la versión Optane de vSAN con nuestra versión all-flash de vSAN probada anteriormente en equipos Dell/Toshiba. Para SQL Sever, la configuración de Optane tuvo puntuaciones casi idénticas con la reducción de datos (DR) activada y desactivada, una puntuación total de 12,605 12,604 TPS sin DR y 11,969 16.5 TPS con DR. Esto marca un salto bastante grande con respecto a la versión all-flash, sin Optane, con DR activado (17 6.2 TPS). En cuanto a la latencia, la versión de Optane mostró una mejora drástica con puntajes agregados de solo 10,699 ms sin DR y solo 8,668 ms con DR activado, menos de la mitad de la latencia de la versión all-flash de SAS en vSAN 24. Con Sysbench, la versión Optane de vSAN tenía más del doble de TPS que la versión all-flash con puntajes agregados de 30 60 TPS Raw y 71 TPS con DR activado. Esta tendencia continúa con la latencia y la latencia en el peor de los casos, siendo en ambos casos menos de la mitad con puntajes agregados de XNUMX ms y XNUMX ms con DR para el promedio, y XNUMX ms y XNUMX ms con DR para el peor de los casos.
Para nuestro VDBench, Optane vSAN tuvo varios aspectos destacados para el rendimiento sin procesar, que incluyen lectura 4K de 522K IOPS, escritura 4K de 202K IOPS, lectura 64K de 5.33 GB/s y escritura 64K de 2.55 GB/s. Con DR activado, vimos que vSAN alcanzó 406 4 IOPS de lectura en 184 4.6, 64 456 IOPS de escritura (seguido de una fuerte caída), 64 GB/s de lectura en 1 K y solo 385 MB/s de escritura en 364 K, pero con una latencia inferior a 90 ms. vSAN continuó con un rendimiento sólido en SQL que alcanzó 10 333 IOPS, 80 20 IOPS en 322-299 y 90 10 IOPS en 285-80 y DR alcanzó 20 324 IOPS, 355 90 IOPS en 10-323 y 80 20 IOPS en 212-279. En Oracle, Raw tuvo un rendimiento bastante sólido con 90 10 IOPS, 263 80 IOPS en 20-XNUMX y XNUMX XNUMX IOPS en XNUMX-XNUMX. La recuperación ante desastres también fue sólida en Oracle con picos de XNUMX XNUMX IOPS (antes de caer), XNUMX XNUMX IOPS en XNUMX-XNUMX y XNUMX XNUMX IOPS en XNUMX-XNUMX.
La inclusión de SSD Optane claramente tiene un gran impacto en el rendimiento de escritura para vSAN. Esto incluso considerando que las unidades tienen solo 375 GB y vSAN admite una capacidad de 600 GB para las unidades de nivel de escritura. Por lo tanto, es posible que podamos obtener un poco más de rendimiento de escritura al tener unidades más grandes. También hay bastante potencial alcista para estas configuraciones de Intel, ya que se califican las interconexiones más rápidas y se usan configuraciones de RAM y CPU más agresivas como en las opciones Plus. Intel también tiene unidades más rápidas/mejores disponibles ahora para el nivel de lectura; el P4510 fue una mejora sustancial sobre el P4500. El punto es que, en lugar de tomar estos datos como lo mejor que Optane puede hacer, estos datos tienen más que ver con establecer la línea de base para las configuraciones de servidor de rango medio que tienen mucho más que ofrecer, si la ocasión lo requiere. También es importante considerar que vSAN está bien posicionado para seguir beneficiándose de la nueva tecnología de servidor y almacenamiento a medida que llega al mercado, algo que es mucho más difícil de lograr para los proveedores de dispositivos tradicionales.
Sin embargo, la conclusión es claramente que a medida que vSAN ha madurado, VMware ha sido inteligente para ponerse a la vanguardia de la tecnología emergente como las SSD Intel Optane. Esto le da a vSAN una ventaja significativa en términos de rendimiento en el mercado de HCI. Si bien muchas soluciones de HCI están felices de satisfacer las necesidades de los casos de uso de ROBO que tienen perfiles de rendimiento moderados, vSAN continúa buscando a los mejores socios para crear soluciones que estén igualmente satisfechas en el perímetro, ya que están sentando las bases para los centros de datos de la próxima generación. se ven como en el mundo SDDC. Los clústeres de vSAN basados en Optane son muy adecuados para esto último y ofrecen la mejor latencia de escritura posible para todas las cargas de trabajo de las aplicaciones.
Suscríbase al boletín de StorageReview