Nós conversamos sobre isso e te provocou com isso, e agora estamos finalmente entregando o VMware vSAN com Intel Optane Review. Isso marcará a terceira grande revisão do vSAN, começando com uma revisão em várias partes de um vSAN 6.0 híbrido seguido por um revisão totalmente em flash do vSAN 6.2. Nesta rodada, em vez de aproveitar nosso cluster Dell PowerEdge R730xd, estamos usando o servidor 2029U-TN24R4T+ 2U de 24 baias da Supermicro executando vSAN 6.7. Para armazenamento, estamos usando uma configuração totalmente NVMe com SSDs Intel Optane P4800X (375 GB) para a camada de gravação, bem como SSDs Intel P4500 (2 TB) para a camada de capacidade.
Nós conversamos sobre isso e te provocou com isso, e agora estamos finalmente entregando o VMware vSAN com Intel Optane Review. Isso marcará a terceira grande revisão do vSAN, começando com uma revisão em várias partes de um vSAN 6.0 híbrido seguido por um revisão totalmente em flash do vSAN 6.2. Nesta rodada, em vez de aproveitar nosso cluster Dell PowerEdge R730xd, estamos usando o servidor 2029U-TN24R4T+ 2U de 24 baias da Supermicro executando vSAN 6.7. Para armazenamento, estamos usando uma configuração totalmente NVMe com SSDs Intel Optane P4800X (375 GB) para a camada de gravação, bem como SSDs Intel P4500 (2 TB) para a camada de capacidade.
Para aqueles que não estão familiarizados com o vSAN, é a infraestrutura hiperconvertida da VMware otimizada para o vSphere que se inclina para o armazenamento. Em outras palavras, o vSAN é um passo nos blocos de construção do data center definido por software que visa simplificar o armazenamento e o gerenciamento de armazenamento, ao mesmo tempo em que oferece melhor desempenho. O vSAN normalmente é vendido por meio de um programa de certificação conhecido como VMware vSAN ReadyNodes, que é uma combinação de hardware certificado com software VMware. A maioria dos principais fornecedores de servidores oferece configurações ReadyNode e alguns também oferecem o vSAN como um dispositivo.
Semelhante à ideia do ReadyNode é o Select Solutions da Intel. Intel Select Solutions são pilhas de hardware e software verificadas que seguem os requisitos estabelecidos pela Intel. As soluções fornecidas ao mercado pelos principais fornecedores de servidores devem ser capazes de replicar ou exceder o desempenho de referência descrito pela Intel e devem ter guias de implantação detalhados para os clientes. A configuração que estamos usando para esta revisão se enquadra nessa categoria, especificamente é uma solução Intel Select para VMware vSAN. Como o nome indica, a solução foi projetada especificamente para ambientes VMware.
A Intel Select Solution para VMware vSAN vem em duas configurações: uma “Base” e uma “Plus”. Nossa configuração fica em algum lugar no meio dessas configurações; é basicamente uma configuração Base com CPUs atualizadas. Com SSDs Optane para a camada de gravação, nossos sistemas são projetados para atender às demandas de latência de aplicativos críticos para os negócios.
Especificações Supermicro 2029U-TN24R4T+:
- Servidores Supermicro 2029U-TN24R4T+ (x4)
- CPU: 2 processadores Intel Xeon Gold 6152, 2.10 GHz, 22 núcleos
- Memória: 384 GB de RAM (12 x 32 GB 2,666 MHz DDR4 DIMM)
- Grupos de discos vSAN, 2x por nó:
- Camada de cache vSAN: 2 SSDs NVMe Intel Optane de 375 GB DC P4800X Series
- Camada de capacidade vSAN: 4 SSDs NVMe Intel DC P2 Series de 4500 TB
- Networking:
- Adaptador de rede convergente Intel Ethernet X710 10/40 GbE (link dedicado para vSAN, tráfego/gerenciamento vMotion/VM dividido em sua própria VLAN).
- Desempenho
- 4KB aleatório, profundidade de fila 16, R/W: até 550/500K IOPS
- 4 KB aleatório, profundidade de fila 16, misto 70/30 R/W: até 500 mil IOPS
- DWDP: 30
- Desempenho
- Leitura sequencial: 3200 MB/s
- Gravação sequencial: 1050MB / s
- Leitura aleatória de 4K: 490,000 IOPS
- Gravação aleatória de 4K: 38,000 IOPS
- DWPD 0.75 aleatório; 4.62 sequencial
Análise de carga de trabalho do aplicativo
Os primeiros benchmarks consistem no Desempenho OLTP do MySQL via SysBench e Desempenho OLTP do Microsoft SQL Server com uma carga de trabalho TPC-C simulada.
Cada VM do SQL Server é configurada com dois vDisks, um de 100 GB para inicialização e outro de 500 GB para o banco de dados e arquivos de log. Do ponto de vista dos recursos do sistema, configuramos cada VM com 16 vCPUs, 64 GB de DRAM e aproveitamos o controlador LSI Logic SAS SCSI. Esses testes são projetados para monitorar o desempenho de um aplicativo sensível à latência no cluster com uma carga de computação e armazenamento moderada, mas não excessiva.
Configuração de teste do SQL Server (por VM)
- Windows Server 2012 R2
- Ocupação de armazenamento: 600 GB alocados, 500 GB usados
- SQL Server 2014
- Tamanho do banco de dados: escala 1,500
- Carga de cliente virtual: 15,000
- Memória RAM: 48 GB
- Duração do teste: 3 horas
- 2.5 horas de pré-condicionamento
- período de amostra de 30 minutos
No teste TPC-C do SQL Server em plataformas hiperconvergentes, analisamos o equilíbrio da carga de trabalho no cluster no modo híbrido, no modo totalmente flash (AF) e na redução de dados totalmente flash (AF DR). O modo AF para Optane, sem surpresa, teve um desempenho ligeiramente melhor com uma pontuação agregada de 12,605 TPS com VMs individuais variando entre 3,148.56 TPS a 3,152.66 TPS. No geral, isso é um pouco melhor do que a versão não Optane do vSAN, que teve uma pontuação agregada de 12,472 TPS. Com o DR ativado, vimos o Optane atingir uma pontuação agregada de 12,604 TPS (apenas um TPS a menos do que com o DR desativado) com VMs individuais variando entre 3,148.7 TPS e 3,153.5 TPS. Este foi um grande salto em relação à versão não Optane com pontuação agregada do DR de 11,969 TPS. Vale a pena notar aqui que as CPUs Gold provavelmente são um fator limitante e, com as CPUs Platinum, há mais vantagens.
Para o teste SQL Server TPC-C, a variável à qual prestamos mais atenção é a latência média. Pequenas lacunas no desempenho transacional não mostrarão a história completa. Em nosso teste de latência média, o AF Optane teve uma pontuação agregada de apenas 16.5ms com VMs individuais variando de 14ms a 21ms. Com DR na versão Optane, saltou apenas para 17ms para agregação com latência de 13ms a 21ms para VMs individuais. Esta é uma grande melhoria em relação ao vSAN não Optane com uma pontuação agregada de 52.5ms sem DR e 261ms com DR ativado.
Desempenho do Sysbench
Cada VM do Sysbench é configurada com três vDisks: um para inicialização (~92 GB), um com o banco de dados pré-construído (~447 GB) e o terceiro para o banco de dados em teste (400 GB). Do ponto de vista dos recursos do sistema, configuramos cada VM com 16 vCPUs, 64 GB de DRAM e aproveitamos o controlador LSI Logic SAS SCSI.
Configuração de teste do Sysbench (por VM)
- CentOS 6.3 64 bits
- Pegada de armazenamento: 1 TB, 800 GB usados
- Percona XtraDB 5.5.30-rel30.1
- Tabelas de banco de dados: 100
- Tamanho do banco de dados: 10,000,000
- Segmentos de banco de dados: 32
- Memória RAM: 24 GB
- Duração do teste: 12 horas
- 6 horas de pré-condicionamento 32 tópicos
- 1 hora 32 tópicos
- 1 hora 16 tópicos
- 1 hora 8 tópicos
- 1 hora 4 tópicos
- 1 hora 2 tópicos
Com o Sysbench OLTP, examinamos a configuração 8VM para cada um. O Optane AF teve uma pontuação agregada de 10,699 TPS, mais do que o dobro dos 4,273 TPS da versão não Optane. Com o DR ativado, o Optane atingiu 8,668 TPS em comparação com o não Optane com 3,625 TPS do DR.
Para a latência média do Sysbench, o vSAN baseado em Optane foi realmente capaz de brilhar com pontuações agregadas de 23.95ms e 29.62ms com DR ativado. Isso é comparado aos 60.05ms e 71.05ms do não Optane com o DR ativado. Em ambos os casos, o Optane teve menos da metade da latência.
A latência média do 99º percentil novamente mostrou que o vSAN baseado em Optane é dramaticamente mais rápido com pontuações agregadas de 42.9 ms e 55.63 ms com o DR ativado em comparação com os 126.02 ms do não Optane e com o DR ativado, 212.42 ms.
Análise de Carga de Trabalho do VDBench
Quando se trata de matrizes de armazenamento de comparação, o teste de aplicativo é o melhor e o teste sintético vem em segundo lugar. Embora não seja uma representação perfeita das cargas de trabalho reais, os testes sintéticos ajudam a estabelecer a linha de base dos dispositivos de armazenamento com um fator de repetibilidade que facilita a comparação entre soluções concorrentes. Essas cargas de trabalho oferecem uma variedade de perfis de teste diferentes, desde testes de "quatro cantos", testes de tamanho de transferência de banco de dados comuns, bem como capturas de rastreamento de diferentes ambientes VDI. Todos esses testes utilizam o gerador de carga de trabalho vdBench comum, com um mecanismo de script para automatizar e capturar resultados em um grande cluster de teste de computação. Isso nos permite repetir as mesmas cargas de trabalho em uma ampla variedade de dispositivos de armazenamento, incluindo arrays flash e dispositivos de armazenamento individuais.
perfis:
- 4K Random Read: 100% Read, 128 threads, 0-120% iorate
- 4K Random Write: 100% Write, 64 threads, 0-120% iorate
- Leitura sequencial de 64K: 100% de leitura, 16 threads, 0-120% iorado
- Gravação sequencial de 64K: 100% gravação, 8 threads, 0-120% iorado
- Banco de Dados Sintético: SQL e Oracle
- Clone completo de VDI e rastreamentos de clone vinculados
Para o teste VDBench, veremos apenas a versão Optane Supermicro do vSAN e veremos se o DR está ativado (referido como DR daqui em diante) ou desativado (referido como Raw daqui em diante). Em nosso primeiro teste para leitura aleatória de pico de 4K, o Raw teve latência abaixo de milissegundos até aproximadamente 440K IOPS e atingiu o pico de 521,599 IOPS com uma latência de 4.65ms. O DR começou pouco menos de 1 ms antes de ultrapassar e atingiu o pico de 406,322 IOPS com uma latência de 7.32 ms.
Com gravação aleatória de 4K, o Raw ultrapassou a linha de 1ms, mas permaneceu abaixo dela até cerca de 150K IOPS e atingiu o pico de 202,081 IOPS com uma latência de 8.4ms. O DR chegou a cerca de 114 IOPS com latência abaixo de um milissegundo e atingiu o pico de 183,947 IOPS com latência de 1.43 ms antes de cair drasticamente no desempenho e aumentar a latência.
Em seguida, examinamos as cargas de trabalho sequenciais de 64K. Para leitura, o Raw teve desempenho de latência abaixo de milissegundos até cerca de 54K IOPS ou 3.5 GB/s e atingiu o pico de 85,319 IOPS ou 5.33 GB/s com uma latência de 4.69 ms. O DR começou acima de 1 ms e atingiu o pico de 73,583 IOPS ou 4.6 GB/s com uma latência de 4.23 ms.
Para gravação de 64K, o Raw atingiu apenas cerca de 12K IOPS antes de quebrar 1 ms, chegando ao pico de 40,869 IOPS ou 2.55 GB/s com uma latência de 5.58 ms. O DR teve desempenho de latência inferior a milissegundos, mas atingiu o pico de apenas 7,303 IOPS ou 456 MB/s com uma latência de 623 μs.
Passando para nossas cargas de trabalho SQL, o Raw teve latência abaixo de milissegundos até cerca de 330 IOPS e atingiu o pico de 385,159 IOPS com uma latência de 2.34 ms. O DR ficou acima de 1 ms praticamente o tempo todo, com um pico de 321,504 IOPS com uma latência de 3.02 ms.
Para o SQL 90-10, o Raw atingiu cerca de 300 IOPS antes de quebrar 1 ms e atingiu o pico de 363,550 IOPS com uma latência de 2.52. O DR atingiu o pico de 299,132 IOPS com uma latência de 3.26ms.
Nosso teste SQL 80-20 viu o Raw executar mais de 277 IOPS em menos de 1 ms e atingir o pico de 332,949 IOPS com uma latência de 2.79 ms. O DR atingiu o pico de 285,010 IOPS com uma latência de 3.42 ms.
Em seguida, temos nossas cargas de trabalho Oracle. O Raw teve latência abaixo de milissegundos até cerca de 262K IOPS e atingiu o pico de 323,706 IOPS com uma latência de 3.27ms. O DR atingiu o pico de 211,993 IOPS com uma latência de 2.07 ms antes de cair novamente no desempenho e aumentar a latência.
Para o Oracle 90-10, o Raw teve desempenho de latência abaixo de milissegundos até cerca de 315K IOPS e atingiu o pico de 354,590 IOPS com uma latência de 1.67ms. O DR atingiu o pico de 279,356 IOPS com uma latência de 2.24ms.
O teste Oracle 80-20 viu o Raw rodar abaixo de 1ms até aproximadamente 273K IOPS e atingir o pico de 322,616 IOPS com uma latência de 1.85ms. O DR atingiu o pico de 263,425 IOPS e uma latência de 2.36 ms.
Em seguida, mudamos para nosso teste de clone VDI, Full and Linked. Para VDI Full Clone Boot, o Raw teve desempenho de latência abaixo de milissegundos até cerca de 240 IOPS, chegando ao pico de 293,335 IOPS e uma latência de 3.3 ms. O DR atingiu um pico de 181,527 IOPS e uma latência de 5.31 ms antes de cair.
O VDI FC Initial Login fez o Raw começar perto de 1 ms e passar rapidamente para o pico de 153,513 IOPS com latência de 5.6 ms antes de uma ligeira queda. O DR atingiu um pico anterior de cerca de 68K IOPS e 5.3 ms de latência antes de cair no desempenho e aumentar a latência.
Com o VDI FC Monday Login, o Raw teve latência abaixo de milissegundos até cerca de 58 IOPS e atingiu o pico de 152,660 IOPS com uma latência de 3.14 ms. O DR teve uma melhor latência de pico (1.64 ms), mas atingiu o pico com desempenho de apenas 64,201 IOPS.
Para o VDI LC Boot, o Raw teve uma latência abaixo de milissegundos até cerca de 170 IOPS e atingiu o pico de 209,676 IOPS com uma latência de 2.21 ms. Com o DR, atingiu um pico de 119,036 IOPS e uma latência de 3.99ms.
Passando para o login inicial do VDI LC, o Raw permaneceu abaixo de 1ms até 29K IOPS e atingiu o pico de 92,951 IOPS com uma latência de 2.62ms. Para o DR, atingiu um pico de pouco menos de 64K IOPS com uma latência de aproximadamente 2.3ms antes de cair.
Por fim, com uma olhada no VDI LC Monday Login, o Raw atingiu cerca de 35 IOPS antes de quebrar 1 ms e atingir o pico de 101,997 IOPS com uma latência de 4.65 ms. Com DR, o pico foi de cerca de 47K IOPS com latência de 1.82 ms antes de o desempenho cair.
Conclusão
A solução de armazenamento hiperconvergente da VMware vem em vários formatos e formas; esta iteração específica usa quatro servidores Supermicro 2029U-TN24R4T+ para computação. Para armazenamento, esta versão do vSAN aproveita o Intel Optane na forma de SSDs Intel Optane P4800X e o armazenamento NVME na forma de SSDs Intel P4500. Essa compilação específica faz parte das novas soluções Select da Intel, particularmente as soluções Intel Select para VMware vSAN. Ele pode ser considerado um vSAN ReadyNode certificado pela VMware e pela Intel para atingir as métricas de desempenho necessárias.
Olhando para o desempenho, em nossa análise de carga de trabalho do aplicativo, comparamos a versão Optane do vSAN com nossa versão totalmente flash testada anteriormente do vSAN em equipamentos Dell/Toshiba. Para o SQL Server, a configuração do Optane teve pontuações quase idênticas com redução de dados (DR) ativada e desativada, uma pontuação agregada de 12,605 TPS sem DR e 12,604 TPS com DR. Isso marca um salto bastante grande sobre a versão totalmente em flash e não Optane com DR ativado (11,969 TPS). Olhando para a latência, a versão Optane mostrou uma melhoria drástica com pontuações agregadas de apenas 16.5ms sem DR e apenas 17ms com DR ativado, menos da metade da latência da versão SAS all-flash no vSAN 6.2. Com o Sysbench, a versão Optane do vSAN teve mais do que o dobro do TPS da versão totalmente flash, com pontuações agregadas de 10,699 TPS Raw e 8,668 TPS com DR ativado. Essa tendência continua com latência e latência de pior cenário, em ambos os casos sendo menos da metade com pontuações agregadas sendo 24ms e 30ms com DR para média e 60ms e 71ms com DR para o pior caso.
Para nosso VDBench, o Optane vSAN teve vários destaques para desempenho Raw, incluindo leitura de 4K de 522K IOPS, gravação de 4K de 202K IOPS, leitura de 64K de 5.33GB/s e gravação de 64K de 2.55GB/s. Com o DR ativado, vimos o vSAN atingir 406K IOPS 4K de leitura, 184K IOPS de gravação (seguido por uma queda acentuada), 4.6 GB/s de leitura em 64K e apenas 456 MB/s de gravação em 64K, mas com latência abaixo de 1 ms. O vSAN continuou com forte desempenho em SQL atingindo 385 IOPS, 364 IOPS em 90-10 e 333 IOPS em 80-20 e o DR atingindo 322 IOPS, 299 IOPS em 90-10 e 285 IOPS em 80-20. No Oracle, o Raw teve desempenho bastante forte com 324K IOPS, 355K IOPS em 90-10 e 323K IOPS em 80-20. A DR também foi forte no Oracle com picos de 212K IOPS (antes de cair), 279K IOPS em 90-10 e 263K IOPS em 80-20.
A inclusão de SSDs Optane claramente tem um grande impacto no desempenho de gravação do vSAN. Isso mesmo considerando que as unidades têm apenas 375 GB e o vSAN suporta capacidade de 600 GB para as unidades de nível de gravação. Portanto, é possível que possamos obter um pouco mais de desempenho de gravação com unidades maiores. Também há um grande potencial de vantagem para essas configurações da Intel, pois interconexões mais rápidas são qualificadas e configurações de RAM e CPU mais agressivas são usadas como nas opções Plus. A Intel também tem unidades mais rápidas/melhores disponíveis agora para a camada de leitura; o P4510 foi uma melhoria substancial em relação ao P4500. A propósito, em vez de considerar esses dados como o melhor que o Optane pode fazer, esses dados são mais sobre como definir a linha de base para configurações de servidor de médio porte que têm muito mais a oferecer, caso a ocasião o exija. Também é importante considerar que o vSAN está bem posicionado para continuar a se beneficiar da nova tecnologia de armazenamento e servidor à medida que chega ao mercado, algo que é muito mais difícil para os fornecedores de dispositivos tradicionais.
No entanto, a conclusão é que, à medida que o vSAN amadureceu, a VMware foi inteligente para ficar na vanguarda da tecnologia emergente, como os SSDs Intel Optane. Isso dá ao vSAN uma vantagem significativa em termos de desempenho no mercado de HCI. Embora muitas soluções de HCI tenham satisfação em atender às necessidades de casos de uso de ROBO com perfis de desempenho moderado, o vSAN continua buscando os melhores parceiros para criar soluções igualmente satisfatórias na borda, pois estabelecem as bases para o que os datacenters de última geração parece no mundo SDDC. Os clusters vSAN baseados em Optane são extremamente adequados para o último, oferecendo a melhor latência de gravação possível para todas as cargas de trabalho de aplicativos.
Inscreva-se no boletim informativo StorageReview