No nosso primeiro segmento da revisão do VxRack Node, abordamos as opções de implantação, visão geral da interface de gerenciamento principal e uma olhada no hardware por trás de todos os nós de desempenho flash da VCE, a divisão de plataformas convergentes da EMC. Nesta parte da análise, examinamos os VxRack Nodes em uma configuração de SAN de duas camadas e como ele funciona sob nossa carga de trabalho MySQL Sysbench. Pressionamos o ScaleIO e o hardware subjacente para 99.2% da capacidade para avaliar o desempenho à medida que a intensidade da carga de trabalho e o tamanho da capacidade aumentavam. Nosso objetivo é medir o potencial de desempenho dos nós quando se trata de oferecer desempenho transacional de alta velocidade, incluindo taxa de transferência e latência, em uma escala de carga de trabalho cada vez mais exigente em nosso ambiente virtualizado.
No nosso primeiro segmento da revisão do VxRack Node, abordamos as opções de implantação, visão geral da interface de gerenciamento principal e uma olhada no hardware por trás de todos os nós de desempenho flash da VCE, a divisão de plataformas convergentes da EMC. Nesta parte da análise, examinamos os VxRack Nodes em uma configuração de SAN de duas camadas e como ele funciona sob nossa carga de trabalho MySQL Sysbench. Pressionamos o ScaleIO e o hardware subjacente para 99.2% da capacidade para avaliar o desempenho à medida que a intensidade da carga de trabalho e o tamanho da capacidade aumentavam. Nosso objetivo é medir o potencial de desempenho dos nós quando se trata de oferecer desempenho transacional de alta velocidade, incluindo taxa de transferência e latência, em uma escala de carga de trabalho cada vez mais exigente em nosso ambiente virtualizado.
Especificações do nó VCE VxRack (computação de desempenho totalmente Flash PF100)
- Chassis – Nº de nós: 2U-4 nós
- Processadores por nó: Dual Intel E5-2680 V3, 12c, 2.5 GHz
- Chipset: Intel 610
- Memória DDR4 por nó: 512 GB (16 x 32 GB)
- NIC incorporada por nó: portas Ethernet duplas de 1 Gbps + 1 porta de gerenciamento 10/100
- Controlador RAID por nó: 1x LSI 3008
- SSDs por nó: 4.8 TB (6 x eMLC de 2.5 GB de 800 polegadas)
- SATADOM por nó: 32GBSLC
- Porta de 10 GbE por nó: 4 portas de 10 Gbps SFP+
- Fonte de alimentação: PSU AC de platina dupla de 1600 W
- Roteador: Cisco Nexus C3164Q-40GE
Dell PowerEdge R730 Virtualizado MySQL cluster de 4 a 8 nós
- Oito dezesseis CPUs Intel E5-2690 v3 para 249 GHz em cluster (dois por nó, 2.6 GHz, 12 núcleos, cache de 30 MB)
- 1-2 TB RAM (256 GB por nó, 16 GB x 16 DDR4, 128 GB por CPU)
- Inicialização do cartão SD (Lexar 16 GB)
- 4-8 x Mellanox ConnectX-3 InfiniBand Adapter (vSwitch para vMotion e rede VM)
- 4-8 x Emulex 16GB FC HBA de porta dupla
- 4-8 x NIC de porta dupla Emulex 10GbE
- VMware ESXi vSphere 6.0 / Enterprise Plus 8-CPU
- Hardware de comutação 10GbE
- Portas Front-End: Comutador Mellanox SX1036 10/40GbE
- Portas de back-end: switch Cisco Nexus 3164 10/40GbE
Desempenho do Sysbench
Cada sysbench A VM é configurada com três vDisks, um para inicialização (~92 GB), um com o banco de dados pré-construído (~447 GB) e o terceiro para o banco de dados em teste (270 GB). Em testes anteriores, alocamos 400 GB para o volume do banco de dados (tamanho do banco de dados de 253 GB), embora para empacotar VMs adicionais no VxRack Node reduzimos essa alocação para liberar mais espaço. Do ponto de vista dos recursos do sistema, configuramos cada VM com 16 vCPUs, 60 GB de DRAM e aproveitamos o controlador LSI Logic SAS SCSI. Os sistemas de geração de carga são Servidores Dell R730; variamos de quatro a oito nesta revisão, dimensionando servidores por grupo de 4 VMs.
Configuração de teste do Sysbench (por VM)
- CentOS 6.3 64 bits
- Pegada de armazenamento: 1 TB, 800 GB usados
- Percona XtraDB 5.5.30-rel30.1
- Tabelas de banco de dados: 100
- Tamanho do banco de dados: 10,000,000
- Segmentos de banco de dados: 32
- Memória RAM: 24 GB
- Duração do teste: 3 horas
- 2 horas de pré-condicionamento 32 tópicos
- 1 hora 32 tópicos
Fora do portão com 4VMs, os VxRack Nodes registraram um total de quase 4,000 transações, um pouco menos do que XIO ISE-860 Armazenamento SAN também configurado com totalmente flash e cerca de 60% mais rápido do que uma configuração Nutanix híbrida de 4 nós. Todos os VxRack Nodes tiveram um desempenho quase igual, entregando cerca de 1,000 transações cada. À medida que a carga de trabalho aumenta, o ScaleIO realmente começa a se diferenciar. Em 8 VMs, o ScaleIO fecha a lacuna com o XIO ISE 860, com desempenho saltando para pouco mais de 6,400 TPS. Em 12VMs, ele lidera por algumas centenas, medindo 7,488TPS. Aqui é onde fica realmente interessante. Testamos cargas de 12-16 VM em outros sistemas, mas foi aí que o desempenho agregado geralmente se nivelou e diminuiu. Em 16 VMs, atingimos o limite superior de onde o XIO pode fornecer com eficiência, mas o ScaleIO continua, alcançando um ganho de 15%, medindo mais de 9,500 TPS. Aumentando para 20 VMs, ainda sem sinais de desaceleração, agora com o ScaleIO medindo mais de 12,000 TPS. Mais quatro VMs adicionadas à mistura, novamente como um recorde quebrado O ScaleIO avança medindo mais de 13,800 TPS em 24 VMs. Aumentando para 28 VMs O ScaleIO avança sem parar, medindo agora 15,641 TPS. Com os limites de capacidade removidos, o ScaleIO aumentou para 99.2% de utilização com 32 VMs, o desempenho do cluster mediu mais de 17,300 TPS quando finalmente jogamos a toalha.
Os principais aprendizados aqui são que os VxNodes aumentaram o desempenho a cada etapa, perdendo pouco fôlego mesmo quando em plena capacidade. Muitas outras SANs teriam caído com um gargalo de E/S antes que a capacidade se esgotasse, onde a carga de trabalho alcança os recursos do hardware. Além de uma taxa de transferência incrível, outra história interessante se desenrola em como o ScaleIO manteve a latência da carga de trabalho do aplicativo.
Geralmente, ao olhar para uma matriz de armazenamento, se você escolher uma carga de trabalho pesada em algum ponto, verá uma curva de sino com desempenho. O desempenho começará lento, atingirá seu pico em algum lugar no meio e, em seguida, o desempenho diminuirá devido ao aumento rápido da latência. Nunca encontramos esse ponto com o ScaleIO, mesmo com 99.2% de utilização da capacidade. Quando nossa carga de trabalho começou na faixa de 4 a 8 VMs, o ScaleIO saltou de 32 para 39.9 ms de latência média do MySQL. Em comparação com o X-IO ISE 860, que mediu 29 e 39 ms, respectivamente, a plataforma VxRack apresentou um perfil de resposta inicial ligeiramente superior. Na faixa de 12-32VM, porém, as marés mudaram, onde o ScaleIO forneceu uma latência MySQL inacreditavelmente baixa e plana. A diferença entre 12VMs e 32VMs foi de pouco menos de 8ms.
Mudando nosso foco para perfis de latência de pico com a visualização de latência de 99º percentil, o ScaleIO oferece um dos melhores perfis que um engenheiro de aplicativos ou provedor de escala da web poderia esperar. Sob intensidade de carga de trabalho crescente, o ScaleIO mantém a calma e não permite que os tempos de resposta de pico do aplicativo explodam, mesmo na intensidade de carga de trabalho mais alta que usamos. O que isso significa para os clientes é que, mesmo em condições de pico ou carga anormalmente alta, a plataforma ScaleIO é capaz de manter a calma e fornecer conteúdo de forma consistente; sem atraso.
Conclusão
Ao encerrarmos nosso primeiro segmento de desempenho no VxRack Node da EMC desenvolvido com ScaleIO, não podemos deixar de ficar chocados com o nível de desempenho oferecido. O ScaleIO conseguiu ser uma das poucas plataformas a esmagá-lo em todas as áreas de nosso teste de MySQL em escala. Em primeiro lugar, o rendimento foi fenomenal, quebrando recordes por uma margem incrivelmente ampla... mesmo com capacidade quase total. Em segundo lugar, a latência do aplicativo permaneceu praticamente inalterada em um ambiente de teste cada vez maior. Em terceiro lugar, mesmo sob cargas crescentes de aplicativos, o ScaleIO conseguiu manter a latência de pico sob controle, o que é muito importante em um ambiente de escala da Web em que oscilações na demanda podem prejudicar outros aplicativos se os tempos de resposta forem muito altos.
Claro, é fácil dizer que os nós do ScaleIO se saíram tão bem porque são totalmente flash. No entanto, como mostram os números, o sistema lidou facilmente com a carga de trabalho em capacidade total, algo que pouquíssimos flash arrays podem fazer enquanto mantém a latência sob controle ao mesmo tempo. Também vale a pena observar que esta primeira análise de desempenho destaca a flexibilidade do ScaleIO conforme identificamos na parte 1. Ele pode ser implantado como uma SAN ou hiperconvergente em qualquer equipamento de sua preferência, consumido como um VxRack Node em uma variedade de tipos ou como a solução projetada do VCE VxRack System 1000 Series.
Revisão do nó EMC VxRack: visão geral
Nó EMC VxRack desenvolvido com ScaleIO: análise de desempenho do SQL Server (2 camadas)
Nó EMC VxRack desenvolvido com ScaleIO: análise de desempenho sintético (2 camadas)
Nó EMC VxRack desenvolvido com ScaleIO Review: Synthetic Performance Review (HCI)
Nó EMC VxRack desenvolvido com ScaleIO: SQL Server Performance Review (HCI)
Nó EMC VxRack desenvolvido com ScaleIO: VMmark Performance Review (HCI)
Inscreva-se no boletim informativo StorageReview