Home Empreendimento Revisão do EMC VNX5200

Revisão do EMC VNX5200

by Laboratório StorageReview Enterprise

O controlador de armazenamento VNX5200 da EMC é o ponto de entrada para as ofertas VNX2 da empresa e apresenta armazenamento em bloco com arquivo opcional e funcionalidade de armazenamento unificado. O VNX5200 pode gerenciar até 125 discos rígidos SAS e NL-SAS de 2.5 ou 3.5 polegadas e SSDs e é desenvolvido com a arquitetura multicore MCx da EMC. Kevin O'Brien, diretor do StorageReview Enterprise Test Lab, viajou recentemente para o datacenter da EMC em Hopkinton, MA, para um tempo prático e benchmarks do VNX5200.


O controlador de armazenamento VNX5200 da EMC é o ponto de entrada para as ofertas VNX2 da empresa e apresenta armazenamento em bloco com arquivo opcional e funcionalidade de armazenamento unificado. O VNX5200 pode gerenciar até 125 discos rígidos SAS e NL-SAS de 2.5 ou 3.5 polegadas e SSDs e é desenvolvido com a arquitetura multicore MCx da EMC. Kevin O'Brien, diretor do StorageReview Enterprise Test Lab, viajou recentemente para o datacenter da EMC em Hopkinton, MA, para um tempo prático e benchmarks do VNX5200.

In Setembro do ano passado, a EMC atualizou sua popular linha VNX de storage arrays unificados com aprimoramentos significativos de hardware. O resultado foi a linha VNX2, com aprimoramentos como uma mudança de PCIe 2.0 para PCIe 3.0 e a nova arquitetura MCx (abrangendo RAID multicore, cache multicore e FAST Cache multicore) para aproveitar melhor os múltiplos núcleos de CPU nos processadores de armazenamento.

Muitos desses aprimoramentos se concentram em permitir que a plataforma VNX faça melhor uso do flash em um momento em que os administradores de armazenamento continuam migrando para configurações de array híbrido. De acordo com a EMC, quase 70% dos sistemas VNX2 agora são fornecidos em configurações flash híbridas, uma mudança que também deu mais importância à função do conjunto FAST da EMC para armazenamento em cache e classificação por níveis.

enquanto o menor VNXe3200 que analisamos anteriormente também foi atualizado com tecnologias VNX2, o VNX5200 foi projetado para clientes de médio porte que precisam de um sistema de armazenamento primário em sua sede e para necessidades de escritório remoto/filial que são mais robustas do que o VNXe3200 pode atender. O VNX5200 pode ser configurado para armazenamento em bloco, arquivo ou unificado e utiliza um chassi EMC Disk Processor Enclosure (DPE) de 3 x 25 polegadas 2.5U. As unidades de processador de armazenamento do VNX5200 incorporam um processador Xeon E1.2 de 5 GHz e quatro núcleos com 16 GB de RAM e podem gerenciar no máximo 125 unidades com conectividade FC, iSCSI, FCoE e NAS.

Atualmente, a família VNX2 também inclui cinco sistemas de armazenamento projetados para escalas maiores do que o VNXe3200 e o VNX5200.

  • VNX5400: até 1 PB de capacidade bruta em 250 drives, até 1 TB de SSD FAST Cache e até 8 módulos UltraFlex I/O por array
  • VNX5600: até 2 PB de capacidade bruta em 500 drives, até 2 TB de SSD FAST Cache e até 10 módulos UltraFlex I/O por array
  • VNX5800: até 3 PB de capacidade bruta em 750 drives, até 3 TB de SSD FAST Cache e até 10 módulos UltraFlex I/O por array
  • VNX7600: até 4 PB de capacidade bruta em 1,000 drives, até 4.2 TB de SSD FAST Cache e até 10 módulos UltraFlex I/O por array
  • VNX8000: até 6 PB de capacidade bruta em 1,500 drives, até 4.2 TB de SSD FAST Cache e até 22 módulos UltraFlex I/O por array

O armazenamento em bloco do VNX5200 é alimentado por processadores de armazenamento VNX duplos com uma topologia de drive SAS de 6 Gb. Uma implementação do VNX2 pode usar um ou mais Data Movers e uma unidade controladora para oferecer serviços NAS. Assim como outros membros da série VNX, o VNX5200 usa módulos de E/S UltraFlex para seus Data Movers e processadores de armazenamento em bloco. O VNX5200 suporta até três Data Movers e no máximo três módulos UltraFlex por Data Mover.

Funcionalidade MCx Multi-Core

O VNX é anterior à ampla tecnologia de processador multicore, e as gerações anteriores da plataforma não foram construídas sobre uma base que pudesse alavancar o dimensionamento dinâmico da CPU. FLARE, o ambiente operacional VNX1 e CLARiiON CX, permitia que serviços, incluindo RAID, fossem executados em um núcleo de CPU específico, mas o paradigma de thread único do FLARE significava que muitas funções principais eram vinculadas ao primeiro núcleo de CPU. Por exemplo, todos os processos de E/S de entrada foram tratados pelo Core 0 antes de serem delegados a outros cores, levando a cenários de gargalo.

O MCx implementa o que a EMC caracteriza como dimensionamento de sistema multicore horizontal, que permite que todos os serviços sejam distribuídos por todos os núcleos. Nessa nova arquitetura disponível no VNX2 e no VNXe3200, os processos de E/S de entrada têm menos probabilidade de se tornarem gargalos porque, por exemplo, as portas Fibre Channel de front-end podem ser distribuídas uniformemente entre vários núcleos de processador. O MCx também implementa afinidade de núcleo de E/S por meio de seu conceito de núcleos preferenciais. Cada porta, front-end e back-end, tem um núcleo preferencial e uma atribuição de núcleo alternativo. Os serviços do sistema hospedam as solicitações com o mesmo núcleo front-end de origem das solicitações para evitar a troca de cache e contexto entre os núcleos.

Uma grande vantagem da nova arquitetura MCx é o suporte para LUN ativo/ativo simétrico, que permite que os hosts acessem LUNs simultaneamente por meio de ambos os processadores de armazenamento no array. Ao contrário da implementação assimétrica do FLARE, o modo ativo/ativo simétrico permite que ambos os SPs gravem diretamente no LUN sem a necessidade de enviar atualizações para o processador de armazenamento primário.

No momento, os sistemas VNX2 oferecem suporte ao acesso ativo/ativo simétrico para LUNs de grupos RAID clássicos, mas não oferecem suporte ativo/ativo para LUNs de pool privado que, em vez disso, podem usar o modo ativo/ativo assimétrico. No momento, as LUNs de pool privado ou “LUNs clássicas” não podem usar o modo ativo/ativo simétrico se usarem serviços de dados diferentes do divisor VNX RecoverPoint.

Uma das sinergias atraentes do VNX5200 entre a arquitetura MCx e o armazenamento de mídia flash é o suporte do sistema para o EMC FAST Suite, que permite que os administradores aproveitem a mídia de armazenamento flash para aumentar o desempenho do array em drives heterogêneos. O FAST Suite combina duas abordagens de uso do flash para acelerar o desempenho do armazenamento – armazenamento em cache e classificação por níveis – em uma solução integrada. As atualizações do VNX2 para o FAST Suite incluem granularidade de níveis quatro vezes melhor e suporte para novos flash drives eMLC.

O VNX FAST Cache permite que até 4.2 TB de armazenamento SSD sejam utilizados para atender a dados altamente ativos e se ajustar dinamicamente aos picos de carga de trabalho, embora o limite superior de tamanho do cache do VNX5200 seja de 600 GB. À medida que os dados envelhecem e se tornam menos ativos com o tempo, o FAST VP classifica os dados de unidades de alto desempenho para unidades de alta capacidade em incrementos de 256 MB com base em políticas definidas pelo administrador.

Especificações EMC VNX5200

  • Gabinete de matriz: gabinete de processador de disco 3U
  • Compartimentos da unidade:
    • SAS/Flash de 2.5 polegadas (2U), 25 unidades
    • SAS/Flash de 3.5 polegadas (3U), 15 unidades
  • Máximo de hosts SAN: 1,024
  • Unidades mínimas/máximas: 4/125
  • Cache RÁPIDO máximo: 600 GB
  • CPU/Memória por array: 2x Intel Xeon E5-2600 4-Core 1.2GHz/32GB
  • RAID: 0/1/10/3/5/6
  • Capacidade bruta máxima: 500 TB
  • Protocolos: FC, FCoE, NFS, CIFS, iSCSI,
  • Tipos de armazenamento: unificado, SAN, NAS, objeto
  • Tipos de unidade: Flash SSD, SAS, NL-SAS
  • Otimização de capacidade: provisionamento reduzido, desduplicação de blocos, compactação de blocos, desduplicação e compactação em nível de arquivo
  • Desempenho: MCx, FAST VP, FAST Cache
  • Gerenciamento: EMC Unisphere
  • Suporte de virtualização: VMware vSphere, VMware Horizon View, Microsoft Hyper-V, Citrix XenDesktop
  • Bloco máximo de módulos de E/S UltraFlex por array: 6
  • Total máximo de portas por array: 28
  • 2/4/8 Gb/s FC máximo de portas por array: 24
  • 1GBASE-T iSCSI máximo de portas por array: 16
  • Máximo de portas FCoE por array: 12
  • Total máximo de portas iSCSI de 10 GbE por array: 12
  • Estações de controle: 1 ou 2
  • Máximo de LUNs suportados: 1,000 (em pool)
  • Tamanho máximo do LUN: 256 TB (LUN do pool virtual)
  • Tamanho máximo do sistema de arquivos: 16 TB
  • Número de movimentadores de dados de arquivo: 1, 2 ou 3
  • CPU/Memória por Data Mover: Intel Xeon 5600/6GB
  • Módulos de expansão de E/S UltraFlex para bloco:
    • Fibre Channel de 4 portas 2/4/8 Gb/s
    • iSCSI de 4 portas 1 Gb/s (cobre)
    • iSCSI de 2 portas 10 Gb/s (óptico)
    • 2 portas 10GBASE-T (cobre) iSCSI
    • FCoE de 2 portas 10GbE (óptico ou twinax)
  • Módulos de expansão de E/S UltraFlex para arquivo:
    • 4 portas 1GBASE-T
    • 4 portas 1GBASE-T e 1GbE (óptica)
    • 2 portas 10GbE (óptica) 
    • 2 portas 10GBASE-T (cobre) 

Design e Construção

Na terminologia do VNX, uma implementação de armazenamento consiste em vários componentes de rack integrados. O componente do controlador é um Storage-Processor Enclosure (SPE) que não incorpora compartimentos de unidade ou, como neste VNX5200, um Disk-Processor Enclosure (DPE) que fornece armazenamento interno. VNX Disk Array Enclosures (DAEs) podem ser usados ​​para incorporar capacidade de armazenamento adicional.

Um SPE incorpora os processadores de armazenamento VNX, além de módulos SAS duplos, fontes de alimentação duplas e fan packs. Os gabinetes de processador de disco (DPEs) incluem um gabinete, módulos de disco, processadores de armazenamento, fontes de alimentação duplas e quatro pacotes de ventiladores. A adição de armazenamento adicional por meio do uso de DAEs pode ser feita por meio do uso de compartimentos de unidade de 15 x 3.5 polegadas, 25 x 2.5 polegadas ou 60 x 3.5 polegadas com placas de controle de link SAS duplas e fontes de alimentação duplas.

Independentemente de fazerem parte de um compartimento de processador de armazenamento ou de um compartimento de processador de disco, os processadores de armazenamento VNX fornecem acesso a dados para hosts externos e conectam o armazenamento em bloco do array com a funcionalidade opcional de armazenamento de arquivo VNX2. O VNX5200 pode aproveitar uma variedade de módulos UltraFlex IO da EMC para personalizar sua conectividade.

Opções do módulo UltraFlex Block IO:

  • Módulo Fibre Channel de 8 Gb/s de quatro portas com SFP óptico e cabeamento OM2/OM3 para conectar a um switch HBA ou FC.
  • Módulo iSCSI de 1 Gb/s de quatro portas com um mecanismo de descarregamento TCP e quatro portas 1GBaseT Cat6.
  • Módulo iSCSI Opt de 10 Gb/s de duas portas com um mecanismo de descarregamento TCP, duas portas Ethernet de 10 Gb/s e uma conexão óptica SFP+ ou uma conexão de cobre twinax a um switch Ethernet.
  • Módulo iSCSI 10GBaseT de duas portas com mecanismo de descarregamento TCP e duas portas Ethernet 10GBaseT
  • Módulo FCoE 10GbE de duas portas com duas portas Ethernet 10Gb/s e uma conexão óptica SFP+ ou uma conexão de cobre twinax
  • Módulo SAS V6 de 2.0 Gb/s com quatro portas para conectividade de back-end com VNX Block Storage Processors. Cada porta SAS tem quatro faixas por porta a 6 Gb/s para taxa de transferência nominal de 24 Gb/s. Este módulo foi projetado para conectividade PCIe 3 e pode ser configurado como 4x4x6 ou 2x8x6.

Para configurar o VNX5200 para armazenamento de arquivos ou armazenamento unificado, ele deve ser usado em conjunto com uma ou mais unidades do Data Mover. O VNX Data Mover Enclosure (DME) tem 2U de tamanho e abriga os Data Movers. Os Data Movers usam processadores Xeon 2.13 de quatro núcleos de 5600 GHz com 6 GB de RAM por Data Mover e podem gerenciar uma capacidade máxima de armazenamento de 256 TB por Data Mover. O gabinete do movedor de dados pode operar com um, dois ou três Data Movers.

As estações de controle têm 1U de tamanho e fornecem funções de gerenciamento aos Data Movers, incluindo controles para failover. Uma estação de controle pode ser implantada com uma estação de controle secundária para redundância. As opções do módulo UltraFlex File IO incluem:

  • Módulo IP 1GBase-T de quatro portas com quatro portas RJ-45 para cabos Cat6
  • Módulo IP Opt 10GbE de duas portas com duas portas Ethernet 10Gb/s e opção de conexão óptica SFP+ ou conexão de cobre twinax a um switch Ethernet
  • Módulo IP 10 GBase-T de duas portas com conexões de cobre para um switch Ethernet
  • Módulo Fibre Channel de 8 Gb/s de quatro portas com SFP óptico e cabeamento OM2/OM3 para conectar diretamente a um array cativo e fornecer uma conexão de fita NDMP

Serviços de gerenciamento e dados

A família VNX usa o software de gerenciamento Unisphere da EMC. Nossa impressão geral do Unisphere é que ele oferece uma interface limpa e bem organizada que será acessível aos generalistas de TI, ao mesmo tempo em que permite que administradores de armazenamento experientes acessem todas as funcionalidades do sistema.

O Unisphere incorpora a funcionalidade de instantâneo que inclui opções de configuração para uma política de exclusão automática que exclui instantâneos (1) após um período de tempo especificado ou (2) quando o espaço de armazenamento de instantâneo excede uma porcentagem especificada da capacidade de armazenamento. Os snapshots do VNX podem usar o provisionamento thin da EMC e redirecionar em tecnologias de gravação para melhorar a velocidade e reduzir os requisitos de armazenamento para snapshots armazenados.

O VNX usa algoritmos de compactação de bloco e arquivo projetados para LUNs e arquivos relativamente inativos, permitindo que suas operações de compactação e desduplicação sejam realizadas em segundo plano com sobrecarga de desempenho reduzida. A desduplicação de bloco fixo do VNX foi desenvolvida com granularidade de 8 KB para cenários como máquina virtual, desktop virtual e ambientes de teste/desenvolvimento com muito a ganhar com a desduplicação. A desduplicação pode ser definida no nível da LUN do pool, e as LUNs thin, thick e desduplicadas podem ser armazenadas em um único pool.

O Unisphere Central fornece monitoramento multibox centralizado para até milhares de sistemas VNX e VNXe, por exemplo, sistemas implantados em escritórios remotos e filiais. O pacote Unisphere também inclui o software VNX Monitoring and Reporting para utilização de armazenamento e padrões de carga de trabalho para facilitar o diagnóstico de problemas, análise de tendências e planejamento de capacidade.

Em ambientes virtualizados, o VNX5200 pode implementar o Virtual Storage Integrator da EMC para VMware vSphere 5 para provisionamento, gerenciamento, clonagem e desduplicação. Para VMware, o VNX5200 oferece integrações de API para VAAI e VASA e, em ambientes Hyper-V, pode ser configurado para Transferência de dados descarregados e Cópia descarregada para arquivo. O EMC Storage Integrator oferece funcionalidade de provisionamento para Hyper-V e SharePoint. O software EMC Site Recovery Manager também pode gerenciar failover e failback em situações de recuperação de desastres.

Os arrays VNX2 do VNX5200 ao VNX8000 oferecem a nova criptografia de dados em repouso baseada em controlador da EMC, denominada D@RE, que criptografa todos os dados do usuário no nível do drive. D@RE usa criptografia AES 256 e está aguardando validação para conformidade com FIPS-140-2 Nível 1. Os novos arrays VNX compatíveis com D@RE são fornecidos com o hardware de criptografia incluído, e os sistemas VNX2 existentes podem ser atualizados em campo para dar suporte a D@RE e criptografar sem causar interrupções o armazenamento existente como uma tarefa em segundo plano.

O D@RE criptografa todos os dados gravados no array usando um protocolo de caminho de dados regular com uma chave exclusiva por disco. Se as unidades forem removidas da matriz por qualquer motivo, as informações na unidade serão ininteligíveis. O D@RE também incorpora a funcionalidade de apagamento de criptografia porque suas chaves de criptografia são excluídas quando um grupo de RAID ou pool de armazenamento é excluído.

O VNX2 oferece a funcionalidade de cache de gravação espelhado, em que cada controladora de armazenamento contém dados primários em cache para suas LUNs e uma cópia secundária do cache para o processador de armazenamento de mesmo nível. Os níveis de RAID 0, 1, 1/0, 5 e 6 podem coexistir no mesmo array e a função proativa de hot sparing do sistema aumenta ainda mais a proteção de dados. O sistema usa unidades de backup de bateria integradas para fornecer desprogramação de cache e outras considerações para um desligamento ordenado durante falhas de energia.

A proteção local está disponível por meio do recurso de instantâneo pontual do Unisphere, e a proteção contínua de dados está disponível por meio da replicação local do RecoverPoint. O VPLEX da EMC pode ser usado para estender a disponibilidade contínua dentro e entre datacenters. De acordo com a EMC, ela usou DVRs de televisão como inspiração para seu software RecoverPoint Continuous Remote Replication.

O Replication Manager e o AppSync fornecem proteção consistente com aplicativos com soluções EMC Backup and Recovery, incluindo Data Domain, Avamar e Networker para reduzir as janelas de backup e os tempos de recuperação.

Testando o plano de fundo e a mídia de armazenamento

Nós publicamos um inventário do nosso ambiente de laboratório, um visão geral dos recursos de rede do laboratório, e outros detalhes sobre nossos protocolos de teste para que os administradores e responsáveis ​​pela aquisição de equipamentos possam avaliar com justiça as condições em que alcançamos os resultados publicados. Para manter nossa independência, nenhuma de nossas revisões é paga ou gerenciada pelo fabricante do equipamento que estamos testando.

A análise do EMC VNX5200 se destaca como uma abordagem de teste bastante exclusiva em comparação com a forma como normalmente avaliamos os equipamentos. Em nosso processo de revisão padrão, o fornecedor nos envia a plataforma, que então conectamos às nossas plataformas de teste fixas para benchmarks de desempenho. Com o VNX5200, o tamanho e a complexidade, bem como a configuração inicial, nos levaram a mudar essa abordagem e levar nosso revisor e equipamento para o laboratório da EMC. A EMC preparou um VNX5200 com o equipamento e as opções necessárias para testes iSCSI e FC. A EMC forneceu seu próprio switch FC de 8 Gb dedicado, enquanto trouxemos um de nossos switches Mellanox 10/40 Gb SX1024 para conectividade Ethernet. Para estressar o sistema, aproveitamos um servidor EchoStreams OSS1A-1U, superando as especificações de hardware do que usamos em nosso ambiente de laboratório tradicional.

EchoStreams OSS1A-1U Especificações:

  • 2x Intel Xeon E5-2697 v2 (2.7 GHz, 30 MB de cache, 12 núcleos)
  • Chipset Intel C602A
  • Memória – 16 GB (2x 8 GB) 1333 MHz DDR3 RDIMMs registrados
  • O Windows Server Standard 2012 R2
    • SSD de inicialização: Micron RealSSD P100e de 400 GB
  • 2 x NIC Mellanox ConnectX-3 de porta dupla 10GbE
  • 2x Emulex LightPulse LPe16002 Gen 5 Fibre Channel (8GFC, 16GFC) PCIe 3.0 HBA de porta dupla

Nossa avaliação do VNX5200 comparará seu desempenho em benchmarks sintéticos em cinco configurações que refletem como os clientes da EMC implementam sistemas VNX2 em um ambiente de produção. Cada configuração aproveitou 8 LUNs medindo 25 GB de tamanho.

  • Uma matriz RAID10 composta por mídia SSD com conectividade Fibre Channel
  • Uma matriz RAID10 composta por mídia SSD com conectividade iSCSI
  • Uma matriz RAID6 composta por mídia HDD de 7k com conectividade Fibre Channel
  • Uma matriz RAID5 composta por mídia HDD de 10k com conectividade Fibre Channel
  • Uma matriz RAID5 composta por mídia HDD de 15k com conectividade Fibre Channel.

Cada configuração incorporou 24 unidades e usou as configurações de RAID mais comuns com sua implantação em um ambiente de produção.

Análise de Carga de Trabalho Sintética Corporativa

Antes de iniciar cada uma das benchmarks sintéticos fio, nosso laboratório precondiciona o dispositivo em estado estacionário sob uma carga pesada de 16 threads com uma fila pendente de 16 por thread. Em seguida, o armazenamento é testado em intervalos definidos com vários perfis de profundidade de encadeamento/fila para mostrar o desempenho sob uso leve e pesado.

Testes de pré-condicionamento e estado estacionário primário:

  • Taxa de transferência (IOPS de leitura+gravação agregada)
  • Latência média (latência de leitura+gravação calculada em conjunto)
  • Latência máxima (latência máxima de leitura ou gravação)
  • Desvio padrão de latência (desvio padrão de leitura + gravação calculado em conjunto)

Esta análise sintética incorpora quatro perfis que são amplamente utilizados em especificações e benchmarks de fabricantes:

  • 4k aleatório – 100% de leitura e 100% de gravação
  • 8k sequencial – 100% de leitura e 100% de gravação
  • 8k aleatório – 70% de leitura/30% de gravação
  • 128k sequencial – 100% de leitura e 100% de gravação

Depois de ser pré-condicionado para cargas de trabalho de 4K, colocamos o VNX5200 em nossos testes primários. Assim, quando configurado com SSDs e acessado via Fibre Channel, registrou 80,472 IOPS de leitura e 33,527 IOPS de gravação. Usando os mesmos SSDs em RAID10 (embora desta vez usando nosso teste de nível de bloco iSCSI), o VNX5200 alcançou 37,421 IOPS de leitura e 22,309 IOPS de gravação. Mudar para HDDs de 15K em RAID5 usando conectividade Fibre Channel mostrou 12,054 IOPS de leitura e 3,148 IOPS de gravação, enquanto a configuração de 10K HDD atingiu 7,688 IOPS de leitura e 2,835 IOPS de gravação. Ao usar HDDs de 7K em uma configuração RAID6 do mesmo tipo de conectividade, o VNX5200 registrou 4,390 IOPS de leitura e 1,068 IOPS de gravação.

Os resultados foram praticamente os mesmos na latência média. Quando configurado com SSDs em RAID10 e usando uma conectividade Fibre Channel, apresentou 3.18ms de leitura e 7.63ms de gravação. Usando os mesmos SSDs com nosso teste de nível de bloco iSCSI, o VNX5200 apresentou leitura de 6.84ms e gravação de 11.47me. Mudar para HDDs de 15K em RAID5 usando conectividade Fibre Channel mostrou 21.23ms de leitura e 81.31ms de gravação em latência média, enquanto a configuração de 10K HDD registrou 33.29ms de leitura e 90.31ms de gravação. Ao alternar para HDDs de 7K em uma configuração RAID6 do mesmo tipo de conectividade, o VNX5200 registrou 58.29ms de leitura e 239.64ms de gravação.

Em seguida, passamos para nosso benchmark de latência máxima. Quando configurado com SSDs em RAID10 e usando nosso teste de nível de bloco iSCSI, ele mostrou 197 ms de leitura e 421.8 ms de gravação. Usando os mesmos SSDs, mas desta vez com conectividade Fibre Channel, o VNX5200 apresentou leitura de 202.1 ms e gravação de 429.2 ms. Mudar para HDDs de 15K em RAID5 usando conectividade Fibre Channel registrou 1,311.3ms de leitura e 1,199.2ms de gravação para máxima latência, enquanto a configuração de 10K HDD registrou 2,687.8ms de leitura e 2,228.1ms de gravação. Ao alternar para HDDs de 7K em uma configuração RAID6 do mesmo tipo de conectividade, o VNX5200 registrou 3,444.8 ms de leitura e 2,588.4 ms de gravação.

Nosso último benchmark de 4K é o desvio padrão, que mede a consistência do Desempenho do VNX5200. Quando configurado com SSDs em RAID10 usando nosso teste de nível de bloco iSCSI, o VNX5200 postou 3.30 ms de leitura e 12.06 ms de gravação. Usar os mesmos SSDs com conectividade Fibre Channel mostra 9.20ms de leitura e 14.32ms de gravação. A mudança para HDDs de 15K em RAID5 com conectividade Fibre Channel registrou 25.93ms de leitura e 120.53ms de gravação, enquanto a configuração de 10K HDD registrou 35.37ms de leitura e 175.66ms de gravação. Ao usar a configuração RAID7 de 6K HDDs do mesmo tipo de conectividade, o VNX5200 registrou 52.75 ms de leitura e 254.55 ms de gravação.

Nosso próximo benchmark usa uma carga de trabalho sequencial composta por 100% de operações de leitura e 100% de operações de gravação com um tamanho de transferência de 8k. Aqui, o VNX5200 registrou 178,959 IOPS de leitura e 76,022 IOPS de gravação quando configurado com HDDs de 10 em conectividade RAID5 Fibre Channel. O uso de HDDs de 15K em RAID5 com conectividade Fibre Channel mostra 176,895 IOPS de leitura e 77,505 IOPS de gravação. Mudar para SSDs em RAID10 usando uma conectividade Fibre Channel registrou 169,833 IOPS de leitura e 74,470 IOPS de gravação, enquanto o teste de nível de bloco SSD iSCSI mostrou 69,303 IOPS de leitura e 40,379 IOPS de gravação. Ao usar HDDs de 7K em uma configuração RAID6 com conectividade Fibre Channel, o VNX5200 registrou 75,982 IOPS de leitura e 76,122 IOPS de gravação.

Nossa próxima série de cargas de trabalho é composta por uma mistura de 8k operações de leitura (70%) e gravação (30%) até uma fila de 16 threads 16, sendo a nossa primeira taxa de transferência. Quando configurado com SSDs em RAID10 usando conectividade Fibre Channel, o VNX5200 postou uma variedade de 8,673 IOPS para 41,866 IOPS por 16T/16T. O uso dos mesmos SSDs durante nosso teste de nível de bloco iSCSI mostra uma variedade de 6,631 IOPS a 28,193 IOPS. Mudar para HDDs de 15K em RAID5 com conectividade Fibre Channel registrou uma gama de 1,204 IOPS e 6,411 IOPS, enquanto a configuração de 10K HDD registrou 826 IOPS e 5,113 IOPS por 16T/16Q. Ao usar a configuração RAID7 de 6K HDDs do mesmo tipo de conectividade, o VNX5200 registrou uma faixa de 267 IOPS a 2,467 IOPS.

Em seguida, analisamos a latência média. Quando configurado com SSDs em RAID10 usando conectividade Fibre Channel, o VNX5200 registrou um intervalo de 0.45ms a 6.11ms por 16T/16Q. O uso dos mesmos SSDs durante nosso teste de nível de bloco iSCSI mostra uma faixa de 0.59ms a 9.07ms. A mudança para HDDs de 15K em RAID5 com conectividade Fibre Channel registrou uma faixa de 3.31ms e 39.89ms, enquanto a configuração do HDD de 10K postou 4.83ms inicialmente e 49.97ms por 16T/16Q. Ao usar a configuração RAID7 de 6K HDDs do mesmo tipo de conectividade, o VNX5200 registrou um intervalo de 14.93ms a 103.52ms.

Observando seus resultados de latência máxima, quando configurado com SSDs em RAID10 usando conectividade Fibre Channel, o VNX5200 teve uma faixa de 27.85ms a 174.43ms por 16T/16Q. O uso dos mesmos SSDs durante nosso teste de nível de bloco iSCSI mostra uma faixa de 31.78 ms a 134.48 ms na latência máxima. A mudança para HDDs de 15K em RAID5 com conectividade Fibre Channel registrou uma faixa de 108.48ms e 2,303.72ms, enquanto a configuração do HDD de 10K mostrou 58.83ms e 2,355.53ms por 16T/16Q. Ao usar a configuração RAID7 de 6K HDDs do mesmo tipo de conectividade, o VNX5200 registrou uma faixa de latência máxima de 82.74 ms a 1,338.61 ms.

Nossa próxima carga de trabalho analisa o desvio padrão para nossas operações de 8k 70% de leitura e 30% de gravação. Usando SSDs em RAID10 usando conectividade Fibre Channel, o VNX5200 registrou uma faixa de apenas 0.18ms a 10.83ms por 16T/16Q. O uso dos mesmos SSDs durante nosso teste de nível de bloco iSCSI mostra uma faixa semelhante de 0.21ms a 11.54ms na consistência de latência. A mudança para HDDs de 15K em RAID5 com conectividade Fibre Channel registrou uma faixa de 3.48ms a 56.58ms, enquanto a configuração do HDD de 10K mostrou 2.5ms inicialmente e 66.44ms por 16T/16Q. Ao usar a configuração RAID7 de HDDs de 6K do mesmo tipo de conectividade, o VNX5200 apresentou uma faixa de desvio padrão de 7.98ms a 110.68ms.

Nosso benchmark sintético final utilizou transferências sequenciais de 128k e uma carga de trabalho de 100% de operações de leitura e 100% de gravação. Nesse cenário, o VNX5200 registrou 2.84 GB/s de leitura e 1.26 GB/s de gravação quando configurado com SSDs usando nosso teste de nível de bloco iSCSI. O uso de HDDs de 15K em RAID5 com conectividade Fibre Channel mostra leitura de 2.48 GB/s e gravação de 2.33 GB/s. Voltando para SSDs em RAID10 (desta vez usando uma conectividade Fibre Channel), ele registrou 2.48 GB/s de leitura e 3.06 GB/s de gravação. Ao usar HDDs de 7K em uma configuração RAID6 com conectividade Fibre Channel, o VNX5200 registrou 2.47 GB/s de leitura e 2.68 GB/s de gravação, enquanto a configuração de 10K HDD apresentou 2.47 GB/s de leitura e 3.22 GB/s de gravação.

Conclusão

O ecossistema VNX da EMC está bem estabelecido no mercado de armazenamento corporativo, mas o VNX2 reflete a disposição da empresa de reformular completamente a arquitetura VNX para aproveitar ao máximo os avanços nas tecnologias de processador, flash e rede. Muito parecido com o VNXe3200, que é voltado para implantações menores, o VNX5200 também demonstra que a EMC está prestando atenção em empresas de médio porte e filiais/escritórios remotos que podem não ser capazes de justificar os gastos dos sistemas maiores da família VNX, mas ainda desejam todos os benefícios empresariais . 

Usado em conjunto com o FAST Suite, o VNX5200 é capaz de oferecer flash caching e hierarquização em conjunto, uma combinação contra a qual os pares da EMC têm problemas para competir. Em nossos testes, dividimos as camadas e configurações comuns de armazenamento para ilustrar com um conjunto de testes limitado exatamente o que os usuários podem esperar do 5200. ou ambos em uma variedade de opções de interface. 

Em última análise, a plataforma VNX2 pode lidar com praticamente qualquer coisa lançada em seu caminho; e é essa flexibilidade que conquista negócios da EMC diariamente. Dada a combinação de opções de armazenamento, módulos IO e suporte NAS, os sistemas são capazes de gerenciar quase tudo que uma organização pode precisar. Claro que existem casos de uso que vão além do 5200 que testamos aqui. A família VNX aumenta bastante (e também reduz um pouco com o VNXe3200) para atender a essas necessidades, seja com mais capacidade de computação, alocação de flash ou prateleiras de disco. 

Vantagens

  • Uma variedade de opções de conectividade via módulos UltraFlex I/O
  • Configurações que suportam cenários de bloco, arquivo e armazenamento unificado
  • Acesso ao robusto ecossistema VNX de ferramentas administrativas e integrações de terceiros

Desvantagens

  • Máximo de 600 GB de FAST Cache

ponto de partida

O EMC VNX5200 é uma entrada importante em sua nova onda de arrays de armazenamento unificado que são projetados para aproveitar o armazenamento flash, CPUs multi-core e ambientes de rede de datacenter modernos. Sua acessibilidade, flexibilidade na configuração e acesso ao software de gerenciamento VNX2 e integrações de terceiros criam um pacote geral formidável para o mercado intermediário.

Página do produto EMC VNX5200

Discutir esta revisão