Como parte dos avanços contínuos da StorageReview tanto no protocolo de teste quanto no desenvolvimento de laboratório corporativo, estamos dando uma olhada renovada nas unidades flash de primeira geração que analisamos anteriormente. Essas revisões dos primeiros dispositivos de armazenamento flash PCIe nos deram a oportunidade de refinar e recalibrar nosso processo de revisão empresarial antes de lançar novas revisões de placas de armazenamento PCIe de segunda geração e aceleradores de aplicativos. Temos passado por nossa metodologia de teste revisada nos últimos meses com cartões de primeira e segunda geração fornecidos por líderes do setor, à medida que aprimoramos os protocolos de teste mais relevantes para o comprador de armazenamento corporativo. Nesta revisão, estamos trabalhando novamente com o Fusion ioDrive Duo de 640 GB - desta vez usando testes mais sofisticados no Windows e no Linux.
Como parte dos avanços contínuos da StorageReview tanto no protocolo de teste quanto no desenvolvimento de laboratório corporativo, estamos dando uma olhada renovada nas unidades flash de primeira geração que analisamos anteriormente. Essas revisões dos primeiros dispositivos de armazenamento flash PCIe nos deram a oportunidade de refinar e recalibrar nosso processo de revisão empresarial antes de lançar novas revisões de placas de armazenamento PCIe de segunda geração e aceleradores de aplicativos. Temos passado por nossa metodologia de teste revisada nos últimos meses com cartões de primeira e segunda geração fornecidos por líderes do setor, à medida que aprimoramos os protocolos de teste mais relevantes para o comprador de armazenamento corporativo. Nesta revisão, estamos trabalhando novamente com o Fusion ioDrive Duo de 640 GB - desta vez usando testes mais sofisticados no Windows e no Linux.
A forma como a equipe StorageReview avalia o armazenamento corporativo continua a evoluir, graças à contribuição contínua de líderes do setor e parceiros importantes. Essa abordagem colaborativa torna a produção de revisão como esta ainda mais detalhada e relevante para o setor em geral. Trabalhar em estreita colaboração com os fabricantes nos permite incorporar novas ideias de teste em nossas análises de forma contínua e abranger itens que, de outra forma, poderiam passar despercebidos. Abaixo, os leitores encontrarão mais de 70 gráficos dedicados a analisar o ioDrive Duo quase ao ponto da minúcia; e isso nem inclui a nova série de benchmarks em nível de aplicativo que estão em desenvolvimento. Embora o detalhe possa parecer arrogante para alguns, para outros que precisam de um kit específico para resolver um problema de armazenamento, esses detalhes são críticos. A resenha completa está postada abaixo em uma única página, como sempre, para comodidade do leitor.
Antes de mergulhar no desempenho do ioDrive, é importante destacar algumas das principais diferenças entre o armazenamento flash do Fusion-io e um SSD típico. Flash em SSDs (como o nome Solid State Drive indica corretamente) está oculto atrás de uma interface SATA ou SAS, ofuscando o NAND por motivos de compatibilidade. Com o produto ioDrive, os usuários basicamente obtêm acesso a uma camada de armazenamento de memória flash, que oferece latência muito menor e melhor desempenho geral do que um SSD. As razões para isso se resumem à arquitetura e à maneira como o ioDrive interage com o sistema host.
Onde um SSD PCIe corporativo geralmente tem vários controladores de dispositivo de bloco e um chip adicional para RAID junto com vários dispositivos em uma única placa, o Fusion-io adota uma abordagem diferente para a vida. O Fusion ioMemory interage com NAND Flash como um processador interagiria com a memória do sistema, isso é feito usando uma combinação do controlador NAND (FPGA) do Fusion-io, que se comunica diretamente pelo PCIe, e o driver do Fusion-io ou o software Virtual Storage Layer instalado no sistema host para converter o dispositivo em um dispositivo de bloco tradicional. Por meio da Virtual Storage Layer ou VSL do Fusion-io, o software emula um dispositivo de bloco para compatibilidade, embora recentemente o Fusion-io tenha lançado um SDK que permite acesso nativo (ignorando a camada de bloco do kernel) em alguns aplicativos.
IoMemory também não é tradicional no sentido de que consome recursos do sistema para que os drivers VSL funcionem, aproveitando a CPU do host enquanto também cria um espaço na memória do sistema. De acordo com o Fusion-io, essa arquitetura se parece mais com a arquitetura da RAM, daí o nome ioMemory. Os benefícios incluem pesquisas de localização de arquivo mais rápidas e, embora o ioMemory atinja a CPU, seu uso é altamente eficiente e realmente impulsiona o desempenho diminuindo a latência transacional. Em termos de gerenciamento, outro benefício central da arquitetura é que, como o Fusion-io usa um FPGA como controlador NAND, ele permite atualizações de software/firmware de nível muito baixo que podem resolver correções de bugs e melhorias de desempenho. Isso contrasta com os controladores SSD padrão, onde mudanças fundamentais só podem ser feitas por meio da fabricação de um novo controlador.
Especificações do Fusion-io ioDrive Duo
- Célula de nível único (SLC)
- SLC ioDrive Duo de 320 GB
- Largura de banda de leitura de 1.5 GB/s (64 kB)
- Largura de banda de gravação de 1.5 GB/s (64 kB)
- 261,000 IOPS de leitura (512 bytes)
- 262,000 IOPS de gravação (512 bytes)
- Latência de acesso 0.026 ms (512 bytes)
- SLC ioDrive Duo de 640 GB
- Largura de banda de leitura de 1.5 GB/s (64 kB)
- Largura de banda de gravação de 1.5 GB/s (64 kB)
- 252,000 IOPS de leitura (512 bytes)
- 236,000 IOPS de gravação (512 bytes)
- Latência de acesso 0.026 ms (512 bytes)
- SLC ioDrive Duo de 320 GB
- Célula Multinível (MLC)
- ioDrive Duo MLC de 640 GB
- Largura de banda de leitura de 1.5 GB/s (64 kB)
- Largura de banda de gravação de 1.0 GB/s (64 kB)
- 196,000 IOPS de leitura (512 bytes)
- 285,000 IOPS de gravação (512 bytes)
- Latência de acesso 0.029 ms (512 bytes)
- 1.28 TB ioDrive Duo MLC
- Largura de banda de leitura de 1.5 GB/s (64 kB)
- Largura de banda de gravação de 1.1 GB/s (64 kB)
- 185,000 IOPS de leitura (512 bytes)
- 278,000 IOPS de gravação (512 bytes)
- Latência de acesso 0.03 ms (512 bytes)
- ioDrive Duo MLC de 640 GB
- PCI-Express 2.0x8
- OS Compatibilidade
- Microsoft: Windows 64 bits Microsoft XP/Vista/Win7/Server 2003/2008/2008 R2
- Linux: RHEL 5/6; SLES 10/11; OEL 5/6; CentOS 5/6; Debian Squeeze; Fedora 15/16; openSUSE 12; Ubuntu 10/11
- UNIX: Solaris 10 U8/U9/U10 x64; OpenSolaris 2009.06 x64; OSX 10.6/10.7, HP-UX* 11i
- Hipervisores: VMware ESX 4.0/4.1/ESXi 4.1/5.0, Windows 2008 R2 com Hyper-V, Hyper-V Server 2008 R2
- Temperatura operacional: 0-55C
- Garantia de cinco anos ou resistência máxima usada
- Versão do VSL revisada: 3.1.1
Design e Construção
O Fusion ioDrive Duo é uma placa PCI-Express x8 Full-Height Half-Length, com dois ioDimms individuais conectados à placa de interface principal. Embora a placa PCI-Express seja mecanicamente um dispositivo x8, nas plataformas Gen1 ela usa 8 faixas para largura de banda, enquanto nos sistemas PCIe Gen2 ela precisa apenas de 4 faixas. Cada placa representa um dispositivo ioMemory exclusivo de 320 GB, usando 4 faixas de conexão PCIe. O design é muito compacto e limpo, incluindo um suporte de suporte robusto na parte traseira do cartão. Isso ajuda a fortalecer o cartão para mantê-lo funcionando em condições de operação adversas e dá a ele uma boa aparência de acabamento.
O coração (ou corações) do ioDrive Duo baseado em MLC são os dois ioDimms. Cada ioDimm idêntico representa um ioDrive, com seu próprio Xilinx Virtex-5 FPGA e pool de 400 GB de MLC NAND. O ioDrive Duo que analisamos usou o Samsung NAND, mas o Fusion-io é independente do fabricante. O NAND é dividido entre 25 chips de 16 GB empilhados duas vezes por dispositivo, com 320 GB utilizáveis com a formatação padrão. Essa proporção coloca os níveis de superprovisionamento de estoque em 20%, quase no mesmo nível da maioria dos dispositivos flash corporativos. O Fusion-io também oferece a capacidade de modificar os níveis de superprovisionamento para permitir personalização e maior desempenho, trocando a capacidade do usuário por atividades em segundo plano.
Do ponto de vista da funcionalidade, todos os ioDrives incluem LEDs de indicação que mostram o status da unidade desde a inicialização até a desativação. Dependendo dos LEDs que estiverem ativos, exibirá os seguintes modos do cartão:
- Desligar
- Power On (Driver não carregado, dispositivo não conectado)
- Power On (Driver carregado, dispositivo não conectado)
- Atividade de gravação ativa
- Atividade de leitura ativa
- Beacon de localização
Para uma abordagem mais tradicional, o ioDrive Duo também inclui uma conexão HDD Activity LED padrão. Esta conexão permite a conexão de uma luz de atividade do HDD frontal de um gabinete de computador ao ioDrive Duo.
O ioDrive Duo é resfriado passivamente, incorporando três dissipadores de calor; projetado para funcionar em um ambiente de servidor de resfriamento forçado. Esses dissipadores de calor resfriam um FPGA Xilinx Virtex-5 em cada ioDimm, bem como um comutador PCIe que faz a interface de ambos os dispositivos com o único slot PCIe. O Fusion-io lista um fluxo de ar recomendado de 300LFM, com uma temperatura ambiente abaixo de 55C. Para evitar danos, o ioDrive foi projetado para acelerar o desempenho se atingir uma temperatura interna de 78°C e desligar a 85°C. Deve-se observar que essas placas não foram projetadas para um ambiente de estação de trabalho, pois as estações de trabalho normalmente não oferecem suporte de resfriamento para complementos PCIe em configurações de estoque. Para atender a esses mercados, Fusion-io anunciou recentemente o ioFX, que é basicamente um único ioDimm com resfriamento ativo.
Outra diferença entre os dispositivos Fusion “Duo” ioMemory e muitas das soluções PCIe concorrentes é que elas exigem mais energia do que geralmente é suportada por uma conexão x8 PCIe 2.0 para manter o desempenho total. A especificação elétrica PCIe 2.0 permite que 25 W sejam extraídos de uma conexão x8, que sob condições de gravação pesadas, os modelos twin-ioDimm, como o ioDrive Duo, podem exceder. Embora estejam em conformidade com as especificações sem fornecer energia adicional, o desempenho total de gravação será limitado. Para resolver este problema, o Fusion-io oferece duas soluções; um requer um adaptador de energia externo, o outro permite que o cartão consuma mais de 25 watts em sistemas que o suportam. Para decidir qual opção faz mais sentido para uma instalação, o Fusion-io possui um guia de configuração de servidor para a maioria dos servidores de nível um que fornece as melhores instruções de configuração.
Para proteger os dados do usuário, o Fusion-io oferece dois recursos principais. Primeiro, os produtos Fusion-io incluem recursos de corte de energia que garantem a integridade dos dados durante quedas de energia inesperadas. Para falhas mais incomuns, como uma falha na matriz NAND, uma vantagem da arquitetura NAND em dispositivos Fusion-io de primeira geração é a redundância de Flashback, permitindo uma única falha NAND sem derrubar o dispositivo inteiro. Os modelos de segunda geração oferecem Adaptive Flashback, suportando várias falhas de NAND.
Software
O Fusion-io lidera quando se trata de oferecer um amplo portfólio de software intuitivo bem polido, que poucos fornecedores de armazenamento chegam perto de igualar se fornecerem algum software. Pronto para uso, o Fusion-io oferece utilitários para gerenciar totalmente os dispositivos ioMemory em todos os principais sistemas operacionais por meio de GUIs e aplicativos de console. Os recursos de gerenciamento abrangem tudo, incluindo maneiras de gerenciar facilmente o superprovisionamento para obter desempenho negociando a capacidade do usuário, monitorar estatísticas da unidade e até transmitir dados ao vivo sobre o que o cartão está fazendo segundo a segundo. Nenhum outro fabricante de armazenamento PCIe chega perto de oferecer esse nível de suporte ao gerenciamento de unidade, muito menos com esse nível de facilidade de uso intuitiva.
Formato de nível baixo do ioSphere (provisionamento em excesso no modo de alto desempenho)
Um dos recursos mais interessantes do software ioSphere é a capacidade de ver o tipo de atividade que atinge o dispositivo ioMemory. Essas informações variam de largura de banda e atividade de E/S à temperatura atual do dispositivo, resistência restante do dispositivo ou até mesmo os recursos do sistema usados pelos drivers VSL.
Transmissão de desempenho ao vivo do ioSphere
Para ver informações mais detalhadas, há também uma página que oferece a impressão completa das especificações do dispositivo ioMemory atualmente selecionado. Isso pode ser qualquer coisa, desde a quantidade total de informações transmitidas para ou do dispositivo até o consumo de energia atual através do barramento PCIe.
Informações de uso vitalício do ioShpere
Não importa se você prefere uma GUI ou uma interface de console para obter suas informações ou configurar seu ioDrive Duo, o Fusion-io também oferece uma linha completa de utilitários baseados em console para lidar com tudo, desde a pesquisa de status da unidade até a formatação da unidade. Todos esses utilitários são configurados para funcionar em vários sistemas operacionais, portanto, não importa qual plataforma esteja em uso; você não precisa carregar um sistema operacional sobressalente para gerenciar um produto Fusion-io.
Status da linha de comando do Fusion-io (básico)
Histórico de testes e comparáveis
Quando se trata de testar o hardware corporativo, o ambiente é tão importante quanto os processos de teste usados para avaliá-lo. Na StorageReview, oferecemos o mesmo hardware e infraestrutura encontrados em muitos data centers aos quais os dispositivos que testamos seriam destinados. Isso inclui servidores corporativos, bem como equipamentos de infraestrutura adequados, como rede, espaço em rack, condicionamento/monitoramento de energia e hardware comparável de mesma classe para avaliar adequadamente o desempenho de um dispositivo. Nenhuma de nossas revisões é paga ou controlada pelo fabricante do equipamento que estamos testando; com comparáveis relevantes escolhidos a nosso critério a partir de produtos que temos em nosso laboratório.
Plataforma de teste StorageReview Enterprise:
Lenovo ThinkServer RD240
- 2 x Intel Xeon X5650 (2.66 GHz, 12 MB de cache)
- Windows Server 2008 Standard Edition R2 SP1 64 bits e CentOS 6.2 64 bits
- Chipset Intel 5500+ ICH10R
- Memória – 8GB (2 x 4GB) 1333Mhz DDR3 RDIMMs registrados
Fusion-io ioDrive Duo de 640 GB
- Lançado: 1S2009
- Tipo NAND: MLC
- Controlador: 2 x Proprietário
- Visibilidade do dispositivo: JBOD, software RAID dependendo do sistema operacional
- Janelas VSL Fusion-io: 3.1.1
- Fusion-io VSL Linux 3.1.1
300GB LSI WarpDrive SLP-300
- Lançado: 1S2010
- Tipo NAND: SLC
- Controlador: 6 x LSI SandForce SF-1500 através de LSI SAS2008 PCIe para SAS Bridge
- Visibilidade do dispositivo: RAID0 de hardware fixo
- Windows LSI: 2.10.43.00
- LSI Linus: driver nativo do CentOS 6.2
1.6TB OCZ Z Drive R4
- Lançado: 2S2011
- Tipo NAND: MLC
- Controlador: 8 x LSI SandForce SF-2200 por meio de OCZ VCA PCIe personalizado para ponte SAS
- Visibilidade do dispositivo: RAID0 de hardware fixo
- Driver do Windows OCZ: 1.3.6.17083
- Driver Linux OCZ: 1.0.0.1480
Benchmarks sintéticos padrão
Dividimos a parte de teste do IOMeter sintético padrão desta revisão em duas partes. O primeiro são nossos testes padrão de profundidade de fila baixa, que são executados em uma profundidade de fila de 4 por trabalhador (total de 4 trabalhadores distribuídos por dois gerentes). Os testes iniciais estão mais alinhados com ambientes de usuário único, enquanto os intervalos de maior profundidade de fila na segunda metade são mais parecidos com o que a placa veria em um servidor com solicitações de E/S empilhadas.
Nosso primeiro teste analisa as velocidades de leitura e gravação sequenciais em linha reta em uma condição de rajada sustentada. O Fusion-io lista uma velocidade de leitura de 1.5 GB/s e uma velocidade de gravação de 1.0 GB/s no ioDrive Duo baseado em MLC de 640 GB.
Medimos o desempenho de transferência sequencial de 1,584 MB/s de leitura e 1,045 MB/s de gravação.
Em seguida, examinamos as transferências aleatórias de blocos grandes, com uma transferência de 2 MB no IOMeter.
Com uma transferência aleatória de 2 MB, o ioDrive Duo manteve uma velocidade de leitura de 1,589 MB/s e uma velocidade de gravação de 1046 MB/s.
Nosso próximo teste analisa as velocidades de transferência aleatória de 4K com profundidade de fila baixa com quatro trabalhadores totais com uma profundidade de fila de 1 cada.
Em uma profundidade de fila baixa, o Fusion ioDrive Duo ofereceu o mais alto desempenho, com velocidades de leitura de 189 MB/s e gravação de 366 MB/s, ou 48,403 IOPS de leitura e 93,740 IOPS de gravação.
Com o desempenho e a latência andando de mãos dadas, analisamos a latência média e máxima durante nosso teste de transferência aleatória de 4K com profundidade de fila baixa. O Fusion ioDrive Duo mediu um tempo de resposta médio de 0.0422ms com uma resposta de pico de 2.08ms.
A próxima metade de nossos benchmarks sintéticos são testes de rampa, cobrindo o desempenho dos níveis iniciais de profundidade da fila até um máximo de 64 por trabalhador (QD efetivo = 256) ou 128 (QD efetivo = 512). Esta seção também inclui nossos testes de perfil de servidor, que desde o início são projetados para mostrar o desempenho dos produtos corporativos sob cargas de servidor mistas exigentes.
Observando o desempenho de leitura aleatória de 4K do ioDrive Duo, ele manteve quase o dobro da velocidade do LSI WarpDrive e do OCZ Z-Drive R4 em uma profundidade de fila de 1 e 2, com o lead escorregando em uma profundidade de fila de 4 antes dele foi ultrapassado por ambos os modelos concorrentes. Neste teste, o desempenho atingiu o máximo de 140,000 IOPS lidos em uma profundidade de fila de 64, embora tenha mantido velocidades acima de 120,000 IOPS de uma profundidade de fila de 8 e acima.
Mudando para um teste de gravação aleatória de 4K em rampa, o ioDrive Duo mostrou um perfil de desempenho semelhante, superando os outros modelos concorrentes em profundidades de fila mais baixas. Neste teste, o desempenho do ioDrive Duo atingiu o pico com uma velocidade de gravação de 224,000 IOPS em uma profundidade de fila de 4, nivelando entre 201,000 a 210,000 IOPS entre uma profundidade de fila de 8 a 64.
Nosso último grupo de benchmarks sintéticos padrão examina o desempenho escalado usando nossos perfis de servidor no IOMeter. Esses testes medem o desempenho de uma profundidade de fila baixa até um máximo de 128 por trabalhador (QD efetivo = 512). Esta seção foi projetada para mostrar o desempenho dos produtos corporativos em diferentes cargas de trabalho mistas e exigentes em condições de rajada. Em nossas cargas de trabalho mistas voltadas para empresas, o ioDrive Duo lidera o pacote em uma profundidade de fila de 1 e 2, com exceção do teste do servidor de arquivos, e fica atrás das outras unidades nas profundidades de fila mais altas.
Benchmarks Corporativos do Mundo Real
Nosso rastreamento corporativo abrange um ambiente de servidor de correio do Microsoft Exchange. Capturamos a atividade de nosso servidor de e-mail StorageReview durante um período de dias. Este hardware de servidor consiste em um ambiente Dell PowerEdge 2970 executando o Windows Server 2003 R2 operando a partir de três discos rígidos SAS de 73 GB 10k em RAID5 no controlador integrado Dell Perc 5/I. O rastreamento consiste em muitas solicitações de transferência pequenas, com uma forte carga de leitura de 95% e tráfego de gravação de 5%.
Como alguns dispositivos PCIe exigem cargas mais altas para atingir o desempenho máximo, incluímos um perfil Leve e Pesado para reprodução de rastreamento. Com isso, limitamos a profundidade efetiva da fila a 8 no perfil mais fraco e aumentamos para 48 no perfil Pesado.
Com uma profundidade de fila efetiva restrita a 8, representando condições de atividade mais leves, o ioDrive Duo ofereceu as maiores velocidades de transferência em nosso teste de reprodução de rastreamento do servidor de correio com uma velocidade média de 969 MB/s. Isso em comparação com a média de 508 MB/s do LSI WarpDrive ou 625 MB/s do OCZ Z-Drive R4 nas mesmas condições. Expandindo a profundidade de fila permitida para 48, o Z-Drive R4 conquistou o primeiro lugar com uma velocidade média de 1,327 MB/s em média, com o ioDrive Duo vindo em seguida com uma velocidade de 1,227 MB/s e o WarpDrive SLP-300 atrás com uma velocidade de 830 MB/s.
Uma desvantagem de aumentar a profundidade da fila para aumentar as taxas de transferência é que ela pode afetar os tempos de resposta à medida que as E/Ss pendentes aumentam. Com uma carga leve, o ioDrive Duo manteve sua velocidade de transferência de 969MB/s com um tempo de resposta de 0.06ms. Para o Z-Drive R4 superá-lo com uma velocidade de transferência de 1,327 MB/s, seu tempo de resposta aumentou 3.5 vezes para 0.21 ms enquanto o WarpDrive teve uma resposta média de 0.45 ms para uma taxa de transferência de 830 MB/s.
Análise de Carga de Trabalho Sintética Corporativa (Configurações de Estoque)
A maneira como olhamos para as soluções de armazenamento PCIe é mais profunda do que apenas olhar para o desempenho tradicional de explosão ou estado estável. Ao observar o desempenho médio durante um longo período de tempo, você perde de vista os detalhes por trás do desempenho do dispositivo durante todo esse período. Como o desempenho do flash varia muito com o passar do tempo, nosso novo processo de benchmarking analisa o desempenho em áreas como taxa de transferência total, latência média, latência de pico e desvio padrão durante toda a fase de pré-condicionamento de cada dispositivo. Com produtos corporativos de ponta, a latência geralmente é mais importante do que a taxa de transferência. Por esse motivo, nos esforçamos ao máximo para mostrar todas as características de desempenho de cada dispositivo que colocamos em nosso Laboratório de testes corporativos.
Também adicionamos comparações de desempenho para mostrar como cada dispositivo funciona com um driver diferente definido nos sistemas operacionais Windows e Linux. Para Windows, usamos os drivers mais recentes no momento da revisão original, em que cada dispositivo é testado em um ambiente Windows Server 64 R2008 de 2 bits. Para Linux, usamos o ambiente CentOS 64 de 6.2 bits, compatível com cada Enterprise PCIe Application Accelerator. Nosso principal objetivo com este teste é mostrar como o desempenho do sistema operacional difere, já que ter um sistema operacional listado como compatível em uma folha de produto nem sempre significa que o desempenho entre eles é igual.
Todos os dispositivos testados seguem a mesma política de teste do início ao fim. Atualmente, para cada carga de trabalho individual, os dispositivos são apagados com segurança usando as ferramentas fornecidas pelo fornecedor, pré-condicionados em estado estacionário com a mesma carga de trabalho com a qual o dispositivo será testado sob carga pesada de 16 threads com uma fila pendente de 16 por thread e em seguida, testado em intervalos definidos em vários perfis de profundidade de encadeamento/fila para mostrar o desempenho sob uso leve e pesado. Para testes com 100% de atividade de leitura, o pré-condicionamento está com a mesma carga de trabalho, embora invertida para 100% de gravação.
Testes de pré-condicionamento e estado estacionário primário:
- Rendimento (Agregado de IOPS de Leitura+Gravação)
- Latência média (latência de leitura+gravação calculada em conjunto)
- Latência máxima (latência máxima de leitura ou gravação)
- Desvio padrão de latência (desvio padrão de leitura + gravação calculado em conjunto)
Atualmente, o Enterprise Synthetic Workload Analysis inclui quatro perfis comuns, que podem tentar refletir a atividade do mundo real. Eles foram escolhidos para ter alguma semelhança com nossos benchmarks anteriores, bem como um terreno comum para comparação com valores amplamente publicados, como velocidade máxima de leitura e gravação de 4K, bem como 8K 70/30 comumente usado para unidades corporativas. Também incluímos duas cargas de trabalho mistas herdadas, incluindo o servidor de arquivos tradicional e o servidor da Web, oferecendo uma ampla combinação de tamanhos de transferência. Esses dois últimos serão eliminados gradualmente com benchmarks de aplicativos nessas categorias à medida que são introduzidos em nosso site e substituídos por novas cargas de trabalho sintéticas.
- 4K
- 100% de leitura ou 100% de gravação
- 100% 4K
- 8K 70/30
- 70% de leitura, 30% de gravação
- 100% 8K
- Servidor de arquivos
- 80% de leitura, 20% de gravação
- 10% 512b, 5% 1k, 5% 2k, 60% 4k, 2% 8k, 4% 16k, 4% 32k, 10% 64k
- webserver
- 100% lido
- 22% 512b, 15% 1k, 8% 2k, 23% 4k, 15% 8k, 2% 16k, 6% 32k, 7% 64k, 1% 128k, 1% 512k
Observando 100% da atividade de gravação em 4K sob uma carga pesada de 16 threads e 16 filas em um período de 6 horas, descobrimos que o Fusion ioDrive Duo oferecia as velocidades de transferência de pico mais altas em nosso Lenovo ThinkServer RD240. Isso vale tanto para o Windows Server 2008 R2 de 64 bits quanto para o CentOS 6.2, que passou a ter uma pequena vantagem sobre o desempenho do Windows. O próximo da fila foi o OCZ Z-Drive R1.6 de 4 TB, embora apenas no Windows. O driver OCZ para CentOS 6.2 [1.0.0.1480] não respondia adequadamente a solicitações de maior profundidade de fila, independentemente do número de threads, e manteve uma velocidade de aproximadamente 7,600 IOPS durante todo esse estágio do teste. O próximo da fila foi o LSI WarpDrive SLP-300, que oferecia uma taxa de transferência muito semelhante no Windows e no Linux.
Observando a latência média durante nosso teste de pré-condicionamento de gravação 4K 100%, a unidade mais rápida e mais lenta foi a OCZ Z-Drive R4. Em um ambiente Windows, com o driver totalmente funcional, a latência média foi muito mais rápida do que o Fusion ioDrive Duo ou o LSI WarpDrive. Em um ambiente Linux com seu desempenho um tanto medíocre, foi exponencialmente maior do que os outros dispositivos desta categoria.
Analisando a saída de latência máxima por intervalo durante o teste de pré-condicionamento de gravação 4K 100%, você pode começar a ver o tamanho de um controlador de impacto e o NAND entram em jogo com um ambiente de gravação pesada. O Fusion ioDrive Duo com MLC NAND ficou entre o LSI WarpDrive baseado em SLC e o OCZ Z-Drive R4 baseado em MLC em termos de picos de latência de pico. Comparando o desempenho no Windows e no Linux, vimos uma saída mais consistente no ambiente Windows em relação ao Linux, com muito menos picos, embora não picos menores. O Z-Drive R4 baseado em MLC no Windows teve grandes picos que atingiram bem acima da nossa escala de gráfico, com o desempenho do Linux sendo bastante estável, embora longe de ser muito pesado no baixo desempenho de IOPS. O LSI WarpDrive ofereceu seu melhor desempenho no Windows, com uma curva de latência muito mais plana, embora ainda tenha visto um pico superior a 1,000 ms.
Ao considerar o desempenho de latência máxima de um determinado produto de armazenamento, a área que frequentemente é ignorada é quantos dos milhares ou milhões de E/S tiveram um alto valor de resposta. É por isso que é importante monitorar não apenas a latência de pico para ver os picos mais altos, mas também observar o desvio padrão, que mostra a variação na latência. Mesmo que uma unidade tenha uma latência média bastante baixa com todos os valores calculados, ela ainda pode ter uma quantidade bastante grande de E/S que pode ser considerada inaceitável, dependendo do aplicativo que você está usando.
Com a configuração SLC NAND, o LSI WarpDrive manteve um desvio padrão de latência muito bom, com sua força aparecendo principalmente em um ambiente Windows. O Fusion ioDrive Duo aproximou-se da faixa superior de desvio padrão, embora fosse bastante consistente, como o padrão encontrado no WarpDrive. Comparando o desempenho do driver, ele foi consistentemente mais rápido no Linux neste teste específico. O OCZ Z-Drive R4 teve uma ampla gama de saída de latência mais alta durante o nosso teste, embora tenha começado a se equilibrar às vezes quando atingiu o estado estacionário, embora ainda tivesse períodos de tempo com alta latência novamente.
Depois que os testes de pré-condicionamento terminaram, começamos imediatamente com nossa amostragem de teste primário. Em estado estacionário, o dispositivo de armazenamento PCIe com maior throughput neste grupo foi o OCZ Z-Drive R4 no Windows. Ele mediu um pico de 229,811 IOPS de leitura e uma velocidade de gravação de 56,978 IOPS. O próximo na fila foi o Fusion ioDrive Duo, medindo 140,230 IOPS de leitura e 42,644 IOPS de gravação. O desempenho do Windows do ioDrive Duo ficou logo abaixo disso, com uma pequena queda no desempenho de gravação. O LSI WarpDrive SLP-300 ofereceu sua maior velocidade de gravação 4K no Windows, medindo 120,502 IOPS de leitura e 35,015 IOPS de gravação.
Na medição de estado estacionário de leitura 4K de alta carga e gravação 4K, o OCZ Z-Drive R4 com suas velocidades de transferência líderes de classe no Windows ficou na frente, com uma latência média de 4.49ms de leitura e 1.11ms de gravação. O Fusion ioDrive Duo veio em seguida com velocidades de leitura medindo 6.00 ms no Linux e 6.25 ms no Windows e 1.82 ms em ambos os sistemas operacionais. Em seguida veio o WarpDrive com velocidade de 7.31ms de leitura no Windows e 7.32ms de leitura no Linux, com velocidades de gravação de 2.12ms no Windows e 2.71ms no Linux.
Observando a latência de pico durante o tempo de amostragem de nosso teste de estado estacionário, o LSI WarpDrive baseado em SLC foi o mais baixo ou melhor no Windows e no Linux, seguido pelo Fusion ioDrive Duo no Windows primeiro com leitura de pico de 426.15ms e 170.09ms gravação de pico e, em seguida, no Linux com leitura de pico de 1,208 ms e gravação de pico de 156.91 ms. No Windows, o OCZ Z-Drive R4 teve os picos mais altos, medindo 1,889ms de leitura e 5,299ms de gravação no Windows.
Observando o desvio padrão durante o período de nosso teste de leitura e gravação de 4K em estado estacionário, o PCIe Application Accelerator mais consistente em nosso teste de 4K para atividade de leitura e gravação é o LSI WarpDrive no Windows. Na classificação por desempenho consistente de gravação em 4K, o OCZ Z-Drive R4 no Windows vem em seguida, seguido pelo WarpDrive no Linux, seguido pelo ioDrive Duo no Linux e, por fim, o ioDrive Duo no Windows. Classificado por velocidade de leitura consistentemente rápida, o desempenho do Windows e do Linux do ioDrive Duo veio após o WarpDrive baseado em SLC, depois o WarpDrive no Linux, seguido pelo Z-Drive R4 no Windows.
O próximo teste de pré-condicionamento funciona com uma distribuição de carga de trabalho de leitura/gravação mais realista, em comparação com a atividade de gravação de 100% em nosso teste de 4K. Aqui, temos uma mistura de 70% de leitura e 30% de gravação de transferências de 8K. Observando nossa carga de trabalho mista 8K 70/30 sob uma carga pesada de 16 threads e 16 filas em um período de 6 horas, descobrimos que o Fusion ioDrive Duo ainda oferecia as velocidades de transferência de pico mais altas em nosso Lenovo ThinkServer. Isso ocorreu tanto no ambiente Windows Server 2008 R2 de 64 bits quanto no ambiente CentOS 6.2, que por acaso tinha uma ligeira vantagem sobre o desempenho do Windows. O próximo da fila foi o OCZ Z-Drive R1.6 de 4 TB, embora apenas no Windows. O próximo da fila foi o LSI WarpDrive SLP-300, que ofereceu maior desempenho em um ambiente Windows.
Mudando para uma olhada na latência média em nosso teste 8K 70/30, a diferença entre os conjuntos de drivers se torna mais pronunciada. O Fusion ioDrive Duo teve o desempenho mais semelhante entre o Linux e o Windows, embora a vantagem do conjunto de drivers do Linux tenha se tornado mais aparente quando a unidade atingiu o estado estacionário. O LSI WarpDrive mostrou uma distribuição significativa na latência média entre os conjuntos de drivers, com o driver do Windows oferecendo o mais alto desempenho. O OCZ Z-Drive R4 no Windows teve a latência média mais baixa do grupo, que andou de mãos dadas com o rendimento mais rápido. O desempenho do Linux, porém, foi novamente fora das tabelas, com média de cerca de 46 ms no Linux, contra 6 ms ou mais no Windows.
Observando os tempos de resposta de pico do ioDrive Duo, WarpDrive e Z-Drive R4, muitas das mesmas características que vimos em nosso teste 4K foram executadas em nossa carga de trabalho 8K 70/30 com uma atividade de leitura incluída. Neste teste, o Fusion-io ioDrive Duo começou com a curva de latência de pico mais baixa e, em seguida, começou a aumentar um pouco depois de duas horas, quando a unidade começou a fazer a transição para o estado estacionário. Naquela época, ele vinha acima do WarpDrive no Windows, que tinha a menor curva entre os drives desse grupo. Observando as diferenças de driver entre o ioDrive Duo no Windows e no Linux, o driver do Linux teve picos mais altos, embora na segunda metade do teste tenha mantido uma curva mais baixa (mais rápida). O Z-Drive R4, por outro lado, no Windows teve picos mais altos, embora como um todo se acalmou em comparação com seu comportamento em uma carga de trabalho de gravação de 100%.
O perfil de desvio padrão em nossa fase de pré-condicionamento da carga de trabalho 8K 70/30 mostrou diferenças interessantes entre os cartões em como eles se comportaram ao longo dos testes. Embora o WarpDrive tenha consistentemente os tempos de resposta mais rápidos no Windows, seu desempenho de latência no Linux deixou um pouco a desejar. O ioDrive Duo mostrou sua melhor face no Linux, enquanto o OCZ Z-Drive R4 produziu um perfil de desvio padrão de latência muito melhorado neste teste em comparação com o teste 100K de gravação 4%.
Em comparação com a carga de trabalho fixa de 16 encadeamentos e 16 filas que executamos no teste de gravação 100% 4K, nossos perfis de carga de trabalho mistos dimensionam o desempenho em uma ampla variedade de combinações de encadeamento/fila. Nesses testes, expandimos nossa intensidade de carga de trabalho de 2 threads e 2 filas até 16 threads e 16 filas. De cara, o perfil mais bizarro é o OCZ Z-Drive R4 comparando seu desempenho no Windows com o desempenho no Linux. Nos momentos em que é mais rápido no Windows, é mais lento no Linux com um problema de escalonamento de profundidade de fila no driver que testamos. Em uma profundidade de encadeamento e fila baixa, o ioDrive Duo teve uma forte vantagem em desempenho em relação ao WarpDrive e Z-Drive R4 com tecnologia LSI SandForce. À medida que a profundidade da fila aumentava, porém, os outros cartões conseguiam igualar ou superar seu desempenho. Comparando os ambientes de driver Windows e Linux, o ioDrive Duo ofereceu uma quase paridade de desempenho em toda a carga de trabalho.
Comparando a latência média de conclusão em todo o amplo intervalo de nível variável de encadeamento e atividade de fila, o WarpDrive manteve os tempos de resposta mais baixos na maioria dos casos, até que o Z-Drive R4 no Windows o superou em cargas de maior profundidade de fila. O ioDrive Duo ofereceu desempenho quase idêntico no Windows e no Linux, com apenas uma pequena lacuna em seu nível de saída mais alto, dando a liderança ao conjunto de drivers do Linux.
Observar a latência máxima em nossa carga de trabalho 8K 70/30 foi interessante, pois mostrou que, mesmo com uma contagem menor de threads e filas, as unidades ainda apresentavam tempos de resposta de pico altos. O ioDrive Duo no Linux teve picos consistentes de 1,000ms na maioria das cargas de trabalho, enquanto o driver do Windows foi muito mais calmo. Neste teste em particular, o ioDrive Duo no Windows apresentou os tempos de resposta de pico mais baixos até a carga de 16T/16Q, com o WarpDrive logo atrás.
Embora os picos altos ocasionais possam parecer desencorajadores, olhando para o gráfico de latência de desvio padrão, vimos um perfil de latência muito mais moderado de todos os dispositivos, exceto o Z-Drive R4 no Linux. Até as cargas mais altas, o ioDrive Duo no Windows manteve o menor desvio padrão, com o driver Linux logo atrás, seguido pelo WarpDrive e depois o Z-Drive R4 no Windows.
A carga de trabalho do servidor de arquivos representa um espectro de tamanho de transferência maior atingindo cada dispositivo específico, portanto, em vez de se acomodar para uma carga de trabalho estática de 4K ou 8K, a unidade deve lidar com solicitações que variam de 512b a 64K. Nesta seção, o Z-Drive R4 no Windows se destacou com o maior desempenho em burst e estado estável, seguido pelo ioDrive Duo. No modo burst, o ioDrive Duo no Windows oferecia velocidades mais altas, mas mudava com o desempenho do Linux quando a unidade entrava em estado estacionário. O WarpDrive veio em seguida, com o desempenho do Windows sendo maior nos modos de rajada e estado estacionário.
Observando a latência média no teste de pré-condicionamento do servidor de arquivos, o Z-Drive R4 manteve uma forte liderança sobre o ioDrive Duo e o WarpDrive no Windows. O ioDrive apresentou pouquíssima diferença entre o desempenho do Linux e do Windows, enquanto o WarpDrive apresentou uma diferença maior entre os sistemas operacionais.
Observando a latência máxima durante a fase de pré-condicionamento de cada unidade, o LSI WarpDrive mostrou alguma fraqueza com seus tempos de resposta máximos do Linux tendo quase um salto de 400ms em relação aos tempos do Windows. Os picos de resposta do ioDrive Duo no Linux foram maiores do que no Windows, embora durante o teste a maioria deles tenha sido o mais baixo no teste, enquanto o lado do Windows quase não teve picos de alta latência, embora flutuasse mais alto em média. O OCZ Z-Drive R4 baseado em MLC flutuou durante a maior parte do processo de pré-condicionamento do servidor de arquivos, com alguns picos superiores a 10,000-40,000 ms durante a primeira hora do teste.
Examinando o desvio padrão dos dispositivos executados em nosso teste de pré-condicionamento do servidor de arquivos, a diferença mais surpreendente foi encontrada com o LSI WarpDrive, onde o tempo de resposta de E/S do Linux aumentou significativamente durante o teste em comparação com o desempenho do Windows. O ioDrive Duo viu uma mudança semelhante quando a unidade atingiu o estado estacionário, onde ambos os caminhos divergiram e a capacidade de resposta do Windows tornou-se menos agrupada. No geral, a unidade com o melhor desempenho nesta seção foi a LSI WarpDrive no Windows, onde manteve a curva de desvio padrão mais plana durante todo o teste.
Depois que nosso processo de pré-condicionamento terminou sob uma carga alta de 16T/16Q, analisamos o desempenho do servidor de arquivos em uma ampla gama de níveis de atividade. O Fusion-io ioDrive Duo manteve o mais alto desempenho em baixas contagens de threads e filas, sendo superado apenas pelo OCZ Z-Drive R4 em taxa de transferência em níveis de E/S excepcionais mais altos.
Analisando a latência média em nosso teste de carga variável, o Z-Drive R4 ficou no topo com os tempos de resposta mais rápidos em média conforme a atividade foi detectada em nosso teste. À medida que o nível de fila pendente aumentava por contagem de threads, a latência do ioDrive Duo aumentava no lado do Linux, embora o driver do Windows tivesse uma taxa de transferência ligeiramente menor.
Observando a latência máxima durante o teste primário do servidor de arquivos, o ioDrive no Linux ainda mostrou seus picos mais altos de 1,000 ms em níveis de contagem de thread/fila baixo e alto. Sua contraparte do Windows, no entanto, ofereceu os tempos de resposta máximos consistentes mais baixos, até a carga de trabalho 16T/16Q.
O perfil de desvio padrão do servidor de arquivos do ioDrive Duo e do WarpDrive permaneceu bastante unido no Windows e no Linux até as profundidades de fila efetivas mais altas. No caso do ioDrive Duo, o driver do Linux manteve melhor compostura no nível 16T/16Q, onde o desempenho do Windows se dispersou.
Nossa última carga de trabalho é única na forma como analisamos a fase de pré-condicionamento da versão de teste da saída principal. Como uma carga de trabalho projetada com 100% de atividade de leitura, é difícil mostrar o verdadeiro desempenho de leitura de cada dispositivo sem uma etapa de pré-condicionamento adequada. Para manter a carga de trabalho de condicionamento igual à carga de trabalho de teste, invertemos o padrão para 100% de gravação. Por esse motivo, os gráficos de pré-condicionamento são muito mais dramáticos do que os números finais da carga de trabalho. Sob essas condições adversas, o OCZ Z-Drive R4 manteve a maior taxa de transferência de burst para estado estável, com o ioDrive Duo vindo em seguida e o WarpDrive em terceiro.
A latência média sobre o processo de pré-condicionamento do servidor da Web de 100% de gravação mostrou que o ioDrive Duo no Linux tem a vantagem com tempos de resposta ligeiramente mais baixos do que o conjunto de drivers do Windows. O LSI WarpDrive mostrou praticamente o mesmo tempo médio de resposta, enquanto o Z-Drive R4 teve uma grande diferença entre o desempenho do Windows e do Linux.
Observando a latência máxima na curva de pré-condicionamento do servidor Web, o Z-Drive R4 teve os picos mais altos, mas, uma vez nivelado, manteve uma quantidade menor de picos de alta latência. Olhando para o ioDrive Duo, embora seu desempenho no Linux tenha vantagem em taxa de transferência e tempos médios de resposta, ele teve alguns dos picos mais altos neste teste, chegando a 1,200 ms, enquanto o driver do Windows foi muito mais calmo com seus picos geralmente no Faixa de 300-400ms (exceto por um grande pico de mais de 1,600ms).
O LSI WarpDrive baseado em SLC manteve o perfil de desvio padrão mais baixo durante o processo de pré-condicionamento do servidor Web no Windows, seguido pelo Z-Drive R4 quando se acalmou, seguido novamente pelo WarpDrive com seu driver Linux e, em seguida, pelo ioDrive Duo no Linux e depois no Windows.
Voltando a uma carga de trabalho de servidor da Web 100% lida após o processo de pré-condicionamento, o OCZ Z-Drive R4 definitivamente ofereceu o mais alto desempenho dentro de um desempenho do Windows, com mais que o dobro da velocidade de transferência em seu ponto mais alto. Ao mesmo tempo, contrastava com o desempenho do Linux, que era mais lento nos mesmos pontos em que oferecia o desempenho mais alto no Windows. Com as menores cargas de trabalho, o ioDrive Duo voltou a apresentar as velocidades mais rápidas, embora tenha sido rapidamente superado pelo Z-Drive R4 quando a profundidade efetiva da fila aumentou.
Tanto o ioDrive Duo quanto o WarpDrive permaneceram próximos no teste de latência média do Servidor Web, embora ambos tenham sido facilmente derrotados pelo R4 no Windows.
Foi um tanto surpreendente ver alguns dos picos de latência mais altos na faixa de 1,000 ms permanecerem no teste de servidor da Web intensivo de leitura, embora o comportamento seja mais visto no ioDrive Duo no Linux, foi observado em todos os três dispositivos em diferentes pontos do teste.
O gráfico de desvio padrão da atividade do servidor Web mostrou que o ioDrive Duo tem tempos de resposta consistentemente mais altos em taxas de profundidade de fila mais altas, com pico de 16T/16Q. Isso ocorreu enquanto o desempenho do Windows permaneceu estável até as cargas de trabalho mais altas. O LSI WarpDrive manteve um perfil bastante plano, até o final no lado do Linux, onde a latência começou a flutuar.
Análise de Carga de Trabalho Sintética Corporativa (Modo de Alto Desempenho)
Dos três aceleradores de aplicativos PCIe nesta análise, apenas o Fusion-io ioDrive Duo oferece um método para alterar o tamanho do setor ou o espaço formatado visível ao usuário para aumentar o desempenho. Embora seja possível particionar parte da unidade e não usá-la com outros produtos, esse processo não é tão intuitivo. Alguns nem estão cientes das implicações ao trocar capacidade por ganho de desempenho.
Embora a maior parte desta revisão tenha se concentrado nos recursos de estoque do ioDrive Duo, esta parte restante revisita nossa nova análise de carga de trabalho sintética para ver como o desempenho difere entre o modo de alto desempenho e a configuração de estoque. No tamanho de estoque de 320 GB por dispositivo, o ioDrive Duo tem um nível de 20% de superprovisionamento entre RAW NAND e visível ao usuário. A formatação do ioDrive Duo para o modo de alto desempenho diminui essa capacidade para 256 GB, ou 36% de superprovisionamento, reduzindo a capacidade total de 640 GB para 512 GB. Embora você negocie uma boa quantidade de capacidade disponível, ficamos surpresos com o quanto isso afetaria o desempenho do estado estacionário. Em alguns casos, vimos o desempenho mais do que dobrar.
Com o ioDrive Duo colocado no modo de alto desempenho, as velocidades de gravação 4K 100% permaneceram praticamente as mesmas em ~ 257k IOPS, mas a diferença no desempenho de estado estável é dramática. Enquanto o ioDrive Duo na configuração de estoque manteve velocidades de throughput de 41-42k IOPS no final da fase de pré-condicionamento, o modo de alto desempenho elevou os níveis para cerca de 90,000 IOPS. Isso é mais do que um salto de 2x, sacrificando alguma capacidade do usuário.
Indo de mãos dadas com uma taxa de transferência mais rápida, a latência também diminuiu pela metade no estágio de pré-condicionamento de gravação 4K.
Ao observar o perfil de latência máxima do teste de pré-condicionamento de gravação em 4K, muitos dos mesmos traços permaneceram, embora desta vez muito mais baixos. A latência do Windows 4K era um pouco mais alta originalmente, embora tivesse menos picos de alta latência vistos no ambiente Linux. Quando a unidade foi formatada no modo de alto desempenho, o perfil do Windows ainda apresentava mais instabilidade, mas o perfil do Linux apresentava melhor compostura e não apresentava os picos de alta latência vistos anteriormente.
O gráfico mais revelador que mostra a melhoria dramática do ioDrive Duo no modo de alto desempenho é o perfil de desvio padrão de latência. Com o aumento do espaço para atividade de GC em segundo plano, sob uma carga de gravação completa de 4K 100%, o desvio padrão diminuiu de 25 a 30 ms antes para 2 a 5 ms.
Comparando nossas pontuações de leitura e gravação 4K 100% em estado estacionário entre os modos de estoque e de alto desempenho, não vimos nenhum aumento no desempenho de leitura. Isso não é tão incomum, já que o provisionamento excessivo geralmente melhora apenas as velocidades de gravação em estado estável, sem afetar as velocidades de pico de leitura ou gravação. Nesse caso, o desempenho de leitura 100% 4K ficou em pouco mais de 140,000 IOPS, com o desempenho de gravação em estado estável saltando de 40.9-42.6K para 90.4-91K IOPS.
A melhoria da latência de gravação de 4K que observamos originalmente na fase de pré-condicionamento foi em média de 2.80 a 2.82 ms no modo de alto desempenho ioDrive Duo, em comparação com 6 a 6.25 ms no modo de estoque.
Embora não tenhamos medido uma diminuição perceptível no tempo médio de resposta de leitura de 4K ou um aumento na taxa de transferência, o ioDrive Duo configurado de alto desempenho ofereceu respostas de leitura de pico muito mais baixas. Os tempos de resposta de gravação de pico de 4K também diminuíram drasticamente.
A diferença no desvio padrão entre os dois modos de superprovisionamento foi noite e dia, com o ioDrive Duo de alto desempenho medindo 1.70-1.76ms contra 25.6-31.6ms anterior.
Embora o aumento de desempenho na gravação aleatória de 4K tenha sido impressionante, estávamos mais interessados em ver como o ioDrive Duo mudaria em uma carga de trabalho mista com atividade de leitura lançada na mistura. Em nosso teste de pré-condicionamento 8K 70/30, a taxa de transferência aumentou significativamente, da faixa de 51-53k IOPS antes de aproximadamente 76K IOPS no modo de alto desempenho. As velocidades de pico foram bastante semelhantes entre as configurações de formatação, embora o ioDrive Duo superprovisionado tenha começado a entrar em estado estacionário mais rapidamente.
Observando a latência em nossa carga de trabalho de 8K 70/30, chegamos às diferenças moderadas entre o driver do Linux e do Windows no ioDrive Duo no modo de alto desempenho. A latência média caiu significativamente e permaneceu muito consistente ao longo do processo de pré-condicionamento.
Embora as melhorias na taxa de transferência e na latência média sejam importantes, a latência de pico é outro fator a ser observado ao alterar a configuração do ioDrive Duo. Nesse caso, o espaço superprovisionado extra deu à unidade espaço suficiente em segundo plano para suprimir a maioria dos saltos de latência máxima que vimos na configuração de pico. Com isso dito, eles não desapareceram totalmente, mas a maior parte da atividade caiu para níveis muito mais baixos.
Olhando para o desvio padrão de latência, você pode ver a imagem completa de quão grande é o impacto que o ioDrive Duo pode ter de um espaço adicional de superprovisionamento. O desvio padrão caiu por um fator de 5, permanecendo em torno de 2ms durante todo o processo de pré-condicionamento, contra 8-12ms anterior.
O ioDrive Duo continuou a mostrar benefícios de desempenho em todos os nossos principais testes de rendimento, onde variamos a carga entre 2T/2T e 16T/16Q.
Observando as diferenças de latência média em nossa carga de trabalho 8K 70/30 comparando o estoque ioDrive Duo com os modos de alto desempenho, a diferença foi mais notável nas maiores profundidades de fila em cada contagem de thread.
Como vimos no estágio de latência máxima do teste de pré-condicionamento 8K 70/30, muitos dos mesmos picos altos permaneceram durante o teste, embora houvesse menos deles.
Comparando o desvio padrão de latência em toda a linha, o superprovisionamento teve um impacto maior em algumas cargas de maior profundidade de fila, enquanto áreas como 8T/16Q não tiveram nenhuma mudança.
O Fusion ioDrive Duo não teve uma melhora tão grande no throughput total ao aumentar a quantidade de superprovisionamento. O desempenho ainda aumentou, embora o aumento tenha sido modesto, em comparação com o salto dramático encontrado na gravação 100% 4K ou na carga de trabalho 8K 70/30%.
A latência média durante o teste de pré-condicionamento do servidor de arquivos melhorou de cerca de 7 a 7.5 ms para pouco mais de 6 ms à medida que o ioDrive Duo se aproximava do desempenho estável.
Mesmo que o Fusion ioDrive Duo não tenha visto uma melhoria dramática na taxa de transferência ou na latência média, ele foi capaz de suprimir muitos dos picos de alta latência encontrados na configuração de superprovisionamento de estoque. A maior melhoria ocorreu com o driver do Windows, que manteve um teto de latência de pico de cerca de 50-75 ms em estado estável em comparação com a faixa anterior de 225-250 ms.
Analisando o desvio padrão de latência no teste de pré-condicionamento do servidor de arquivos, o aumento do superprovisionamento manteve a vibração no mínimo quando a unidade se aproximou do estado estável. O desvio padrão de latência do Linux não melhorou muito, mas o desvio padrão do Windows caiu de 12-14ms para pouco menos de 3ms.
Aumentar o superprovisionamento do Fusion ioDrive Duo permitiu que a placa aumentasse o desempenho em aproximadamente 5,000 IOPS na maioria das combinações de profundidade de fila e thread, com o maior aumento em cargas de profundidade de fila mais altas.
A latência foi aprimorada em ambas as áreas, com o Fusin ioDrive Duo no Windows obtendo a maior melhoria na carga de 16T/16Q, indo do mais lento para o mais rápido.
Comparando a latência de pico na carga de trabalho do servidor de arquivos, o ioDrive Duo se acalmou bastante no Linux, perdendo muitos de seus picos de 1,000 ms de antes. Desta vez, teve apenas um único pico de 1,000 ms no teste do Windows.
O desvio padrão geral caiu bastante, mostrando o quanto o ioDrive Duo se acalmou com o aumento da quantidade de superprovisionamento.
Embora nossa curva de pré-condicionamento do servidor Web não seja a melhor representação da atividade do servidor Web, na verdade é o oposto em 100% de gravação, ela ainda mostra o impacto que o aumento do provisionamento excessivo pode ter. O rendimento total aumentou bastante, superando até mesmo o OCZ Z-Drive R4.
A latência média ao longo da duração de nosso teste de pré-condicionamento do servidor Web foi reduzida pela metade, de mais de 20ms anteriormente, para pouco mais de 10ms no modo de alto desempenho.
Quase todos os picos de alta latência foram suprimidos com o aumento do provisionamento excessivo, com o desempenho do Linux melhorando ao máximo.
O desvio padrão da latência melhorou drasticamente durante a seção de pré-condicionamento do servidor Web, com a maior mudança no lado do Linux com a curva quase plana em comparação com o desempenho do estoque.
Mudando o perfil do servidor Web de volta para 100% de leitura, vimos pouca ou nenhuma melhoria na velocidade de transferência entre o estoque e o aumento do provisionamento excessivo nessa carga de trabalho específica. Isso não é surpreendente, já que o provisionamento excessivo realmente beneficia apenas o desempenho relacionado à gravação.
A latência média foi quase idêntica em todos os aspectos, mostrando poucos sinais de melhora com o provisionamento excessivo adicional.
Embora a taxa de transferência e a latência média não tenham melhorado, os tempos de resposta de alta latência desapareceram completamente neste perfil de servidor da Web 100% lido quando os níveis de superprovisionamento foram aumentados.
Semelhante à diminuição na latência de pico em nosso perfil de servidor da Web com o ioDrive Duo no modo de alto desempenho, o desvio padrão de latência também caiu bastante em nosso teste do Linux, enquanto o teste do Windows apresentou melhorias mínimas.
Conclusão
Ao dar uma olhada renovada no ioDrive Duo, há várias coisas que se destacam. Dado que o Fusion-io foi um dos pioneiros dessa iteração específica da tecnologia de armazenamento e eles possuem várias peças de propriedade intelectual importantes sobre armazenamento, não deveria ser tão surpreendente que o pacote geral seja tão compacto, mas o nível de precisão é digno de crédito. Isso não é apenas precisão em termos de desempenho, que, mesmo como tecnologia de geração anterior, funciona bem. Mas precisão em termos de sensação polida em todos os lugares, desde a embalagem até a interface do software e o desempenho consistente em muitas de suas plataformas suportadas, incluindo as versões do Windows e Linux que testamos. Embora o software atual do ioDrive Duo tenha sido atualizado várias vezes desde seu lançamento inicial, considerando que o drive foi lançado no início de 2009, ele mostra muito pouco tempo.
Para uma unidade baseada em MLC, o ioDrive Duo se destaca muito bem contra o LSI WarpDrive baseado em SLC, que pode ser considerado seu concorrente mais próximo. Como produtos projetados diretamente para o segmento Enterprise Application Acceleration, ambos os modelos se destacam com cargas de trabalho pesadas em várias plataformas de SO. Em quase todos os testes, o ioDrive Duo ofereceu desempenho consistente, embora em termos de latência máxima o WarpDrive com seu SLC-NAND tenha se saído melhor do que nosso ioDrive Duo de 640 GB equipado com MLC. Ao compará-lo com o OCZ Z-Drive R4 baseado em MLC, foi fácil ver como esses dois produtos são projetados para mercados distintos. O Z-Drive oferecia alta velocidade e alta capacidade graças ao NAND de baixo custo e controladores de geração mais recente, mas sua latência de pico e desvio padrão eram mais inconsistentes do que o ioDrive Duo ou WarpDrive. Os pontos fortes do Z-Drive estavam mais no lado de leitura pesada, enquanto o ioDrive Duo e o WarpDrive encontraram seu lugar em um ambiente de gravação pesada. Para implantações fora do Windows, onde o ioDrive Duo e o WarpDrive ofereciam desempenho semelhante no Linux, o desempenho do Z-Drive R4 contrastava totalmente com as pontuações do Windows, apresentando desempenho exponencialmente mais lento.
É claro que o ioDrive Duo de capacidade de estoque tem suas fraquezas, como visto por seus blips frequentes de 1,000 ms em testes de profundidade de fila baixa e alta quando em estado estacionário. Dado o desvio padrão consistente, porém, muitos desses blips foram poucos eventos de tempo, em vez de atingir consistentemente taxas de resposta mais altas. Outra área menor de preocupação pode ser encontrada dependendo da plataforma, já que o Linux tende a ser o ponto forte deste produto, mesmo que supere apenas ligeiramente o desempenho do Windows. No final das contas, essas preocupações com a latência provavelmente não apareceriam no ioDrive Duo baseado em SLC, que pode ser visto como um concorrente mais próximo do LSI WarpDrive, que está disponível apenas em uma configuração SLC de 300 GB.
Quando testamos o ioDrive Duo em seu modo de alto desempenho, que baixou a capacidade formatada para 256 GB de 320 GB por ioDimm, o desempenho mais que dobrou em alguns casos. O desempenho de gravação aleatória de 4K aumentou de 40,000 IOPS para 90,000 IOPS e, ao mesmo tempo, a latência de pico caiu como uma rocha. Para usuários corporativos dispostos a trocar capacidade em nome da velocidade e baixa latência, o Fusion-io oferece uma maneira fácil para o usuário final fazer essas alterações. Nenhuma das soluções PCIe concorrentes oferece esse tipo de configuração de desempenho, a menos que você esteja disposto a particionar manualmente o espaço do usuário e deixar uma seção sem uso, o que pode não ser viável em todos os aplicativos.
Vantagens
- Integração mais estreita de software e hardware de qualquer fornecedor PCIe Application Accelerator
- Paridade de desempenho mais próxima entre drivers Windows e Linux
- Grande rendimento e latência no modo de estoque que fica ainda melhor no modo de alto desempenho
- Forte desempenho de baixa fila/baixo número de threads
Desvantagens
- A instalação e a configuração inicial podem ser mais difíceis do que outras soluções (energia externa necessária, sem suporte de driver de sistema operacional integrado)
- Precisa de mais recursos do sistema com pegada VSL usada para apresentar o ioDrive como uma camada de memória
ponto de partida
De uma perspectiva de facilidade de uso, o ioDrive Duo define o padrão de como um acelerador de aplicativo PCIe deve ser apresentado ao usuário final. Independentemente do sistema operacional usado, a experiência é quase idêntica, até a GUI fornecida e as ferramentas de gerenciamento do console. Desde o primeiro dia, o usuário pode se sentar, independentemente do sistema operacional, e obter o status do hardware do ioDrive Duo, formatá-lo ou superprovisioná-lo ao seu gosto e colocá-lo em produção. O ioDrive Duo é uma oferta completa mais refinada do que qualquer outra no mercado de armazenamento corporativo.
Página do produto Fusion-io Duo
Atualizar 8/17/12 - Nosso Revisão LSI Nytro WarpDrive foi publicado e anexado aos gráficos usados nesta revisão do Fusion-io.