En nuestros primer segmento de la revisión del nodo VxRack, cubrimos las opciones de implementación, la descripción general de la interfaz de administración principal y una mirada al hardware detrás de nuestros nodos de rendimiento todo flash de VCE, la división de plataformas convergentes de EMC. En esta parte de la revisión, analizamos los nodos de VxRack en una configuración de SAN de dos capas y su rendimiento con nuestra carga de trabajo de MySQL Sysbench. Presionamos ScaleIO y el hardware subyacente al 99.2 % de su capacidad para evaluar el rendimiento a medida que aumentaba la intensidad de la carga de trabajo y la huella de capacidad. Nuestro objetivo es medir el potencial de rendimiento de los nodos cuando se trata de poder ofrecer un rendimiento transaccional de alta velocidad, incluido el rendimiento y la latencia, en una escala de carga de trabajo cada vez más exigente en nuestro entorno virtualizado.
En nuestros primer segmento de la revisión del nodo VxRack, cubrimos las opciones de implementación, la descripción general de la interfaz de administración principal y una mirada al hardware detrás de nuestros nodos de rendimiento todo flash de VCE, la división de plataformas convergentes de EMC. En esta parte de la revisión, analizamos los nodos de VxRack en una configuración de SAN de dos capas y su rendimiento con nuestra carga de trabajo de MySQL Sysbench. Presionamos ScaleIO y el hardware subyacente al 99.2 % de su capacidad para evaluar el rendimiento a medida que aumentaba la intensidad de la carga de trabajo y la huella de capacidad. Nuestro objetivo es medir el potencial de rendimiento de los nodos cuando se trata de poder ofrecer un rendimiento transaccional de alta velocidad, incluido el rendimiento y la latencia, en una escala de carga de trabajo cada vez más exigente en nuestro entorno virtualizado.
Especificaciones del nodo VCE VxRack (cómputo de rendimiento todo flash PF100)
- Chasis - # de nodo: 2U-4 nodo
- Procesadores por nodo: Dual Intel E5-2680 V3, 12c, 2.5 GHz
- Conjunto de chips: Intel 610
- Memoria DDR4 por nodo: 512 GB (16x 32 GB)
- NIC integrada por nodo: dos puertos Ethernet de 1 Gbps + 1 puerto de administración 10/100
- Controlador RAID por nodo: 1x LSI 3008
- SSD por nodo: 4.8 TB (6x eMLC de 2.5 pulgadas y 800 GB)
- SATADOM por nodo: 32GBSLC
- Puerto de 10 GbE por nodo: 4 puertos de 10 Gbps SFP+
- Fuente de alimentación: Doble fuente de alimentación de CA de platino de 1600 W
- Enrutador: Cisco Nexus C3164Q-40GE
Clúster de 730 a 4 nodos MySQL virtualizado Dell PowerEdge R8
- Ocho dieciséis CPU Intel E5-2690 v3 para 249 GHz en clúster (dos por nodo, 2.6 GHz, 12 núcleos, 30 MB de caché)
- 1-2 TB de RAM (256 GB por nodo, 16 GB x 16 DDR4, 128 GB por CPU)
- Arranque de tarjeta SD (Lexar 16 GB)
- 4-8 adaptadores Mellanox ConnectX-3 InfiniBand (vSwitch para vMotion y red de VM)
- 4-8 x Emulex FC HBA de 16 GB y dos puertos
- 4-8 x NIC de dos puertos Emulex de 10 GbE
- VMware ESXi vSphere 6.0/Enterprise Plus 8-CPU
- Hardware de conmutación de 10 GbE
- Puertos frontales: conmutador Mellanox SX1036 de 10/40 GbE
- Puertos back-end: Conmutador Cisco Nexus 3164 10/40GbE
Rendimiento de Sysbench
Cada banco de sistema La máquina virtual está configurada con tres discos virtuales, uno para arranque (~92 GB), uno con la base de datos preconstruida (~447 GB) y el tercero para la base de datos bajo prueba (270 GB). En pruebas anteriores, asignamos 400 GB al volumen de la base de datos (tamaño de la base de datos de 253 GB), aunque para empaquetar máquinas virtuales adicionales en el nodo VxRack, redujimos esa asignación para hacer más espacio. Desde la perspectiva de los recursos del sistema, configuramos cada VM con 16 vCPU, 60 GB de DRAM y aprovechamos el controlador LSI Logic SAS SCSI. Los sistemas de generación de carga son Servidores Dell R730; oscilamos entre cuatro y ocho en esta revisión, escalando servidores por grupo de 4VM.
Configuración de prueba de Sysbench (por VM)
- CentOS 6.3 de 64 bits
- Huella de almacenamiento: 1 TB, 800 GB utilizados
- Percona XtraDB 5.5.30-rel30.1
- Tablas de base de datos: 100
- Tamaño de la base de datos: 10,000,000
- Subprocesos de la base de datos: 32
- Búfer RAM: 24GB
- Duración de la prueba: 3 horas
- 2 horas preacondicionamiento 32 hilos
- 1 hora 32 hilos
Fuera de la puerta con 4VM, los nodos de VxRack registraron un total de casi 4,000 transacciones, que es un poco menos que XIO ISE-860 El almacenamiento SAN también se configuró con todo flash y aproximadamente un 60 % más rápido que una configuración híbrida de 4 nodos de Nutanix. Todos los nodos de VxRack se desempeñaron casi por igual y entregaron alrededor de 1,000 transacciones cada uno. A medida que aumenta la carga de trabajo, ScaleIO realmente comienza a diferenciarse. Con 8 VM, ScaleIO cierra la brecha con XIO ISE 860 con un rendimiento que salta a poco más de 6,400 TPS. A 12 VM, toma la delantera por unos pocos cientos y mide 7,488 TPS. Aquí es donde se pone realmente interesante. Probamos cargas de 12 a 16 VM en otros sistemas, pero aquí fue donde el rendimiento agregado generalmente se estabilizó y disminuyó. Con 16 VM, hemos alcanzado el límite superior en el que XIO puede ofrecer resultados efectivos, pero ScaleIO continúa, sumando una ganancia del 15 % y midiendo más de 9,500 TPS. Aumentándolo hasta 20 VM, todavía no hay signos de desaceleración, ahora con ScaleIO midiendo más de 12,000TPS. Se agregaron cuatro máquinas virtuales más a la mezcla, nuevamente como un récord rayado que ScaleIO avanza midiendo más de 13,800 24 TPS en 28 máquinas virtuales. Subiendo a 15,641 VM ScaleIO avanza sin romper el ritmo, ahora mide 99.2 TPS. Con los límites de capacidad eliminados, ScaleIO alcanzó una utilización del 32 % con 17,300 VM, el rendimiento del clúster midió más de XNUMX XNUMX TPS cuando finalmente tiramos la toalla.
Los aprendizajes clave aquí son que los VxNodes aumentaron el rendimiento en cada paso, perdiendo poco impulso incluso cuando estaban a plena capacidad. Muchas otras SAN se habrían caído con un cuello de botella de E/S antes de que se agotara la capacidad, donde la carga de trabajo alcanza las capacidades del hardware. Más allá de un rendimiento increíble, se desarrolla otra historia interesante sobre qué tan bien ScaleIO mantuvo la latencia de la carga de trabajo de la aplicación.
Por lo general, cuando observa una matriz de almacenamiento, si elige una gran carga de trabajo en algún momento, verá una curva de campana con el rendimiento. El rendimiento comenzará lento, alcanzará su punto máximo en algún punto intermedio y luego disminuirá a expensas de un rápido aumento de la latencia. Nunca encontramos ese punto con ScaleIO, incluso con una utilización de la capacidad del 99.2 %. Cuando nuestra carga de trabajo comenzó en el rango de 4-8 VM, ScaleIO saltó de 32 a 39.9 ms de latencia promedio de MySQL. En comparación con el X-IO ISE 860, que midió 29 y 39 ms respectivamente, la plataforma VxRack tuvo un perfil de respuesta inicial ligeramente superior. Sin embargo, en el rango de 12-32 VM, la marea cambió, donde ScaleIO entregó una latencia de MySQL increíblemente baja y plana. La diferencia entre 12 VM y 32 VM fue de poco menos de 8 ms.
Al cambiar nuestro enfoque hacia los perfiles de latencia máxima con la vista de latencia del percentil 99, ScaleIO ofrece uno de los mejores perfiles que un ingeniero de aplicaciones o un proveedor de escala web podría esperar. Bajo una intensidad de carga de trabajo cada vez mayor, ScaleIO mantiene la calma y no permite que los tiempos de respuesta máximos de la aplicación exploten, incluso con la intensidad de carga de trabajo más alta que le lanzamos. Lo que esto significa para los clientes es que, incluso en condiciones de carga máxima o anormalmente alta, la plataforma ScaleIO puede mantenerse fresca y entregar contenido de manera constante; sin retraso
Conclusión
A medida que finalizamos nuestro primer segmento de rendimiento en el nodo VxRack de EMC con tecnología de ScaleIO, no podemos evitar sentirnos sorprendidos por el nivel de rendimiento ofrecido. ScaleIO logró ser una de las pocas plataformas en superar el estadio de béisbol en todas las áreas de nuestra prueba MySQL escalada. Primero, el rendimiento fue fenomenal, batiendo récords por un margen increíblemente amplio... incluso casi a plena capacidad. En segundo lugar, la latencia de la aplicación se mantuvo casi plana a través de un entorno de prueba cada vez mayor. En tercer lugar, incluso con cargas de aplicaciones en aumento, ScaleIO logró mantener bajo control la latencia máxima, lo cual es muy importante en un entorno de escala web donde los cambios en la demanda podrían causar que otras aplicaciones sufran si los tiempos de respuesta aumentan demasiado.
Claro, es fácil decir que los nodos de ScaleIO funcionaron tan bien porque son todo flash. Sin embargo, como muestran los números, el sistema hizo frente fácilmente a la carga de trabajo a plena capacidad, algo que muy pocas matrices flash pueden hacer y, al mismo tiempo, controlar la latencia. También vale la pena señalar que esta primera revisión de rendimiento destaca la flexibilidad de ScaleIO como identificamos en la parte 1. Se puede implementar como una SAN o hiperconvergente en cualquier equipo que desee, consumido como un nodo VxRack en una variedad de sabores o como la solución diseñada de VCE VxRack System 1000 Series.
Revisión del nodo EMC VxRack: descripción general
Nodo EMC VxRack con tecnología de ScaleIO: revisión del rendimiento de SQL Server (2 capas)
Nodo EMC VxRack con tecnología de ScaleIO: revisión de rendimiento sintético (2 capas)
Nodo EMC VxRack con tecnología de ScaleIO Revisión: Revisión de rendimiento sintético (HCI)
Nodo EMC VxRack con tecnología de ScaleIO: SQL Server Performance Review (HCI)
Nodo EMC VxRack con tecnología de ScaleIO: revisión de rendimiento de VMmark (HCI)
Suscríbase al boletín de StorageReview