Accueil Entreprise Examen de l'EMC VNX5200

Examen de l'EMC VNX5200

Le contrôleur de stockage VNX5200 d'EMC est le point d'entrée des offres VNX2 de la société et propose un stockage par blocs avec des fonctionnalités de stockage de fichiers et unifié en option. Le VNX5200 peut gérer jusqu'à 125 disques durs et SSD SAS et NL-SAS de 2.5 pouces ou 3.5 pouces et est construit avec l'architecture multicœur MCx d'EMC. Kevin O'Brien, directeur du laboratoire de test d'entreprise StorageReview, s'est récemment rendu au centre de données d'EMC à Hopkinton, dans le Massachusetts, pour une expérience pratique et des tests de performances du VNX5200.


Le contrôleur de stockage VNX5200 d'EMC est le point d'entrée des offres VNX2 de la société et propose un stockage par blocs avec des fonctionnalités de stockage de fichiers et unifié en option. Le VNX5200 peut gérer jusqu'à 125 disques durs et SSD SAS et NL-SAS de 2.5 pouces ou 3.5 pouces et est construit avec l'architecture multicœur MCx d'EMC. Kevin O'Brien, directeur du laboratoire de test d'entreprise StorageReview, s'est récemment rendu au centre de données d'EMC à Hopkinton, dans le Massachusetts, pour une expérience pratique et des tests de performances du VNX5200.

In Septembre de l'année dernière, EMC a mis à jour sa célèbre gamme VNX de baies de stockage unifié avec des améliorations matérielles importantes. Le résultat a été la gamme VNX2, avec des améliorations telles que le passage de PCIe 2.0 à PCIe 3.0 et la nouvelle architecture MCx (englobant RAID multicœur, cache multicœur et FAST Cache multicœur) pour mieux tirer parti de plusieurs cœurs de processeur dans les processeurs de stockage.

Bon nombre de ces améliorations visent à permettre à la plate-forme VNX de mieux utiliser le flash à un moment où les administrateurs de stockage continuent d'évoluer vers des configurations de baies hybrides. Selon EMC, près de 70 % des systèmes VNX2 sont désormais livrés dans des configurations flash hybrides, une évolution qui a également accordé plus d'importance au rôle de la suite FAST d'EMC pour la mise en cache et la hiérarchisation.

Alors que le plus petit VNXe3200 que nous avons précédemment examiné a également été mis à jour avec les technologies VNX2, le VNX5200 est conçu pour les clients du marché intermédiaire qui ont besoin d'un système de stockage principal à leur siège social et pour les besoins des bureaux distants/succursales qui sont plus robustes que ce que le VNXe3200 peut gérer. Le VNX5200 peut être configuré pour le stockage de blocs, de fichiers ou unifié et utilise un châssis EMC Disk Processor Enclosure (DPE) 3U, 25x 2.5 pouces. Les unités de processeur de stockage du VNX5200 intègrent un processeur Xeon E1.2 à quatre cœurs de 5 GHz avec 16 Go de RAM et peuvent gérer un maximum de 125 disques avec une connectivité FC, iSCSI, FCoE et NAS.

La famille VNX2 comprend également actuellement cinq systèmes de stockage conçus pour des échelles plus importantes que le VNXe3200 et le VNX5200.

  • VNX5400 : jusqu'à 1 Po de capacité brute sur 250 disques, jusqu'à 1 To de SSD FAST Cache et jusqu'à 8 modules d'E/S UltraFlex par baie
  • VNX5600 : jusqu'à 2 Po de capacité brute sur 500 disques, jusqu'à 2 To de SSD FAST Cache et jusqu'à 10 modules d'E/S UltraFlex par baie
  • VNX5800 : jusqu'à 3 Po de capacité brute sur 750 disques, jusqu'à 3 To de SSD FAST Cache et jusqu'à 10 modules d'E/S UltraFlex par baie
  • VNX7600 : jusqu'à 4 Po de capacité brute sur 1,000 disques, jusqu'à 4.2 To de SSD FAST Cache et jusqu'à 10 modules d'E/S UltraFlex par baie
  • VNX8000 : jusqu'à 6 Po de capacité brute sur 1,500 disques, jusqu'à 4.2 To de SSD FAST Cache et jusqu'à 22 modules d'E/S UltraFlex par baie

Le stockage par blocs VNX5200 est alimenté par deux processeurs de stockage VNX avec une topologie de disque SAS de 6 Go. Un déploiement VNX2 peut utiliser un ou plusieurs Data Movers et une unité de contrôleur pour offrir des services NAS. Comme les autres membres de la série VNX, le VNX5200 utilise des modules d'E/S UltraFlex pour ses Data Movers et les processeurs de stockage en mode bloc. Le VNX5200 prend en charge jusqu'à trois Data Movers et un maximum de trois modules UltraFlex par Data Mover.

Fonctionnalité multicœur MCx

VNX est antérieur à la technologie de processeur multicœur répandue, et les générations précédentes de la plate-forme n'ont pas été construites sur une base qui pourrait tirer parti de la mise à l'échelle dynamique du processeur. FLARE, l'environnement d'exploitation VNX1 et CLARiiON CX, permettait à des services tels que RAID d'être exécutés sur un cœur de processeur spécifique, mais le paradigme à thread unique de FLARE signifiait que de nombreuses fonctions principales étaient liées au premier cœur de processeur. Par exemple, tous les processus d'E/S entrants étaient gérés par le Core 0 avant d'être délégués à d'autres cœurs, ce qui entraînait des scénarios de goulot d'étranglement.

MCx implémente ce qu'EMC caractérise comme une mise à l'échelle horizontale du système multicœur, qui permet à tous les services d'être répartis sur tous les cœurs. Avec cette nouvelle architecture disponible à la fois sur VNX2 et sur VNXe3200, les processus d'E/S entrants sont moins susceptibles de connaître des goulots d'étranglement car, par exemple, les ports Fibre Channel frontaux peuvent être répartis uniformément entre plusieurs cœurs de processeur. MCx implémente également l'affinité de cœur d'E/S grâce à son concept de cœurs préférés. Chaque port, frontal et principal, possède à la fois un cœur préféré et un cœur alternatif. Le système héberge les requêtes avec le même cœur frontal d'où proviennent les requêtes afin d'éviter d'échanger le cache et le contexte entre les cœurs.

Un avantage majeur de la nouvelle architecture MCx est la prise en charge des LUN actifs/actifs symétriques, qui permettent aux hôtes d'accéder simultanément aux LUN via les deux processeurs de stockage de la baie. Contrairement à l'implémentation asymétrique de FLARE, le mode actif/actif symétrique permet aux deux SP d'écrire directement sur le LUN sans avoir besoin d'envoyer des mises à jour au processeur de stockage principal.

À l'heure actuelle, les systèmes VNX2 prennent en charge l'accès actif/actif symétrique pour les LUN de groupe RAID classique, mais ne prennent pas en charge l'accès actif/actif pour les LUN de pool privé qui peuvent utiliser le mode actif/actif asymétrique. Les LUN de pool privé ou « LUN classiques » ne peuvent actuellement pas utiliser le mode actif/actif symétrique s'ils utilisent des services de données autres que le séparateur VNX RecoverPoint.

L'une des synergies convaincantes du VNX5200 entre l'architecture MCx et le stockage de supports flash est la prise en charge par le système de la suite EMC FAST, qui permet aux administrateurs de tirer parti des supports de stockage flash pour augmenter les performances de la baie sur des disques hétérogènes. La suite FAST combine deux approches d'utilisation du flash pour accélérer les performances de stockage - la mise en cache et la hiérarchisation - dans une solution intégrée. Les mises à jour VNX2 de FAST Suite incluent une granularité de hiérarchisation quatre fois supérieure et la prise en charge des nouveaux lecteurs flash eMLC.

VNX FAST Cache permet d'utiliser jusqu'à 4.2 To de stockage SSD afin de servir des données hautement actives et de s'adapter dynamiquement aux pics de charge de travail, bien que la limite supérieure de taille de cache du VNX5200 soit de 600 Go. À mesure que les données vieillissent et deviennent moins actives au fil du temps, FAST VP hiérarchise les données des disques hautes performances aux disques haute capacité par incréments de 256 Mo en fonction de politiques définies par l'administrateur.

Spécifications EMC VNX5200

  • Boîtier de baie : boîtier de processeur de disque 3U
  • Boîtiers de disque :
    • SAS/Flash 2.5 pouces (2U), 25 disques
    • SAS/Flash 3.5 pouces (3U), 15 disques
  • Nombre maximal d'hôtes SAN : 1,024 XNUMX
  • Lecteurs Min/Max : 4/125
  • Cache FAST maximum : 600 Go
  • Processeur/Mémoire par baie : 2x Intel Xeon E5-2600 4 cœurs 1.2 GHz/32 Go
  • RAID: 0/1/10/3/5/6
  • Capacité brute maximale : 500 To
  • Protocoles : FC, FCoE, NFS, CIFS, iSCSI,
  • Types de stockage : unifié, SAN, NAS, objet
  • Types de disques : Flash SSD, SAS, NL-SAS
  • Optimisation de la capacité : Thin Provisioning, déduplication de blocs, compression de blocs, déduplication et compression au niveau des fichiers
  • Performances : MCx, FAST VP, FAST Cache
  • Gestion : EMC Unisphere
  • Prise en charge de la virtualisation : VMware vSphere, VMware Horizon View, Microsoft Hyper-V, Citrix XenDesktop
  • Nombre maximum de modules d'E/S Block UltraFlex par baie : 6
  • Nombre total de ports maximum par baie : 28
  • Ports FC maximum 2/4/8 Gb/s par baie : 24
  • Nombre total de ports iSCSI 1GBASE-T maximum par baie : 16
  • Nombre maximal de ports FCoE par baie : 12
  • Nombre total de ports iSCSI 10 GbE maximum par baie : 12
  • Postes de contrôle : 1 ou 2
  • Nombre maximum de LUN pris en charge : 1,000 XNUMX (groupés)
  • Taille maximale de LUN : 256 To (LUN de pool virtuel)
  • Taille maximale du système de fichiers : 16 To
  • Nombre de déménageurs de données de fichiers : 1, 2 ou 3
  • Processeur/Mémoire par Data Mover : Intel Xeon 5600/6 Go
  • Modules d'extension d'E/S UltraFlex pour bloc :
    • Fibre Channel 4 ports 2/4/8 Gb/s
    • iSCSI 4 ports 1 Gb/s (cuivre)
    • iSCSI 2 Gb/s (optique) à 10 ports
    • iSCSI 2GBASE-T (cuivre) à 10 ports
    • FCoE 2GbE (optique ou twinax) à 10 ports
  • Modules d'extension d'E/S UltraFlex pour fichier :
    • 4GBASE-T à 1 ports
    • 4 ports 1GBASE-T et 1GbE (optique)
    • 2 ports 10GbE (optique) 
    • 2 ports 10GBASE-T (cuivre) 

Concevoir et construire

Dans la terminologie VNX, un déploiement de stockage se compose de plusieurs composants de rack intégrés. Le composant du contrôleur est soit un boîtier de processeur de stockage (SPE) qui n'intègre pas de baies de lecteur, soit, comme avec ce VNX5200, un boîtier de processeur de disque (DPE) qui fournit un stockage interne. Les boîtiers de baies de disques VNX (DAE) peuvent être utilisés pour intégrer une capacité de stockage supplémentaire.

Un SPE intègre les processeurs de stockage VNX en plus de modules SAS doubles, de blocs d'alimentation doubles et de packs de ventilateurs. Les boîtiers de processeur de disque (DPE) comprennent un boîtier, des modules de disque, des processeurs de stockage, des blocs d'alimentation doubles et quatre packs de ventilateurs. L'ajout de stockage supplémentaire via l'utilisation de boîtiers DAE peut être effectué via l'utilisation de baies de lecteur 15 x 3.5 pouces, 25 x 2.5 pouces ou 60 x 3.5 pouces avec deux cartes de contrôle de liaison SAS et deux blocs d'alimentation.

Qu'ils fassent partie d'un boîtier de processeur de stockage ou d'un boîtier de processeur de disque, les processeurs de stockage VNX fournissent un accès aux données aux hôtes externes et relient le stockage en bloc de la baie avec la fonctionnalité de stockage de fichiers VNX2 en option. Le VNX5200 peut tirer parti d'une variété de modules d'E/S UltraFlex d'EMC pour personnaliser sa connectivité.

Options de module d'E/S UltraFlex Block :

  • Module Fibre Channel 8 Gb/s à quatre ports avec câblage optique SFP et OM2/OM3 pour se connecter à un commutateur HBA ou FC.
  • Module iSCSI 1 Gb/s à quatre ports avec un moteur de déchargement TCP et quatre ports 1GBaseT Cat6.
  • Module iSCSI Opt 10 Gb/s à deux ports avec un moteur de déchargement TCP, deux ports Ethernet 10 Gb/s et une connexion optique SFP+ ou une connexion cuivre twinax à un commutateur Ethernet.
  • Module iSCSI 10GBaseT à deux ports avec un moteur de déchargement TCP et deux ports Ethernet 10GBaseT
  • Module FCoE 10GbE à deux ports avec deux ports Ethernet 10Gb/s et une connexion optique SFP+ ou une connexion cuivre twinax
  • Module SAS V6 2.0 Gb/s à quatre ports pour la connectivité backend aux processeurs de stockage VNX Block. Chaque port SAS dispose de quatre voies par port à 6 Gb/s pour un débit nominal de 24 Gb/s. Ce module est conçu pour la connectivité PCIe 3 et peut être configuré en 4x4x6 ou 2x8x6.

Afin de configurer le VNX5200 pour le stockage de fichiers ou le stockage unifié, il doit être utilisé en tandem avec une ou plusieurs unités Data Mover. Le boîtier du Data Mover VNX (DME) a ​​une taille de 2U et abrite les Data Movers. Les Data Movers utilisent des processeurs Xeon 2.13 à quatre cœurs de 5600 GHz avec 6 Go de RAM par Data Mover et peuvent gérer une capacité de stockage maximale de 256 To par Data Mover. Le boîtier du dispositif de transfert de données peut fonctionner avec un, deux ou trois dispositifs de transfert de données.

Les stations de contrôle ont une taille 1U et fournissent des fonctions de gestion aux Data Movers, y compris des commandes de basculement. Une station de contrôle peut être déployée avec une station de contrôle secondaire pour la redondance. Les options du module d'E/S de fichiers UltraFlex incluent :

  • Module IP 1GBase-T à quatre ports avec quatre ports RJ-45 pour câbles Cat6
  • Module IP Opt 10GbE à deux ports avec deux ports Ethernet 10Gb/s et un choix de connexion optique SFP+ ou une connexion cuivre twinax à un commutateur Ethernet
  • Module IP 10 GBase-T à deux ports avec connexions en cuivre à un commutateur Ethernet
  • Module Fibre Channel 8 Gb/s à quatre ports avec câblage optique SFP et OM2/OM3 pour se connecter directement à une baie captive et fournir une connexion de bande NDMP

Services de gestion et de données

La gamme VNX utilise le logiciel de gestion Unisphere d'EMC. Notre impression générale d'Unisphere est qu'il offre une interface propre et bien organisée qui sera accessible aux généralistes de l'informatique tout en permettant aux administrateurs de stockage expérimentés d'accéder à toutes les fonctionnalités du système.

Unisphere intègre une fonctionnalité d'instantané qui inclut des options de configuration pour une politique de suppression automatique qui supprime les instantanés soit (1) après un laps de temps spécifié, soit (2) une fois que l'espace de stockage des instantanés dépasse un pourcentage spécifié de la capacité de stockage. Les snapshots VNX peuvent utiliser les technologies de provisionnement fin et de redirection en écriture d'EMC pour améliorer la vitesse et réduire les besoins en stockage des snapshots stockés.

VNX utilise des algorithmes de compression de blocs et de fichiers conçus pour des LUN et des fichiers relativement inactifs, ce qui permet d'effectuer ses opérations de compression et de déduplication en arrière-plan avec une surcharge de performances réduite. La déduplication à bloc fixe de VNX est conçue avec une granularité de 8 Ko pour des scénarios tels que les machines virtuelles, les bureaux virtuels et les environnements de test/développement avec beaucoup à gagner de la déduplication. La déduplication peut être définie au niveau du LUN du pool, et les LUN légers, épais et dédupliqués peuvent être stockés dans un seul pool.

Unisphere Central fournit une surveillance multi-box centralisée pour jusqu'à des milliers de systèmes VNX et VNXe, par exemple des systèmes déployés dans des bureaux distants et des succursales. La suite Unisphere comprend également le logiciel VNX Monitoring and Reporting pour l'utilisation du stockage et les modèles de charge de travail afin de faciliter le diagnostic des problèmes, l'analyse des tendances et la planification des capacités.

Dans les environnements virtualisés, le VNX5200 peut déployer l'intégrateur de stockage virtuel d'EMC pour VMware vSphere 5 pour le provisionnement, la gestion, le clonage et la déduplication. Pour VMware, le VNX5200 offre des intégrations d'API pour VAAI et VASA, et dans les environnements Hyper-V, il peut être configuré pour le transfert de données déchargées et la copie de déchargement pour fichier. EMC Storage Integrator offre des fonctionnalités de provisionnement pour Hyper-V et SharePoint. Le logiciel EMC Site Recovery Manager peut également gérer le basculement et la restauration automatique dans les situations de reprise après sinistre.

Les baies VNX2 du VNX5200 au VNX8000 offrent le nouveau chiffrement des données au repos basé sur contrôleur d'EMC, nommé D@RE, qui chiffre toutes les données utilisateur au niveau du disque. D@RE utilise le cryptage AES 256 et est en attente de validation pour la conformité FIPS-140-2 niveau 1. Les nouvelles baies VNX compatibles D@RE sont livrées avec le matériel de chiffrement inclus, et les systèmes VNX2 existants peuvent être mis à niveau sur le terrain pour prendre en charge D@RE et chiffrer sans interruption le stockage existant en tâche de fond.

D@RE chiffre toutes les données écrites sur la baie à l'aide d'un protocole de chemin de données standard avec une clé unique par disque. Si des disques sont retirés de la matrice pour une raison quelconque, les informations sur le disque sont incompréhensibles. D@RE intègre également une fonctionnalité de crypto-effacement car ses clés de chiffrement sont supprimées lorsqu'un groupe RAID ou un pool de stockage est supprimé.

VNX2 offre une fonctionnalité de cache d'écriture en miroir, où chaque processeur de stockage contient à la fois des données mises en cache principales pour ses LUN et une copie secondaire du cache pour le processeur de stockage homologue. Les niveaux RAID 0, 1, 1/0, 5 et 6 peuvent coexister dans la même matrice et la fonction proactive de remplacement à chaud du système augmente encore la protection des données. Le système utilise des unités de batterie de secours intégrées pour assurer la désactivation du cache et d'autres considérations pour un arrêt ordonné pendant les pannes de courant.

La protection locale est disponible via la fonction d'instantané ponctuel d'Unisphere, et la protection continue des données est disponible via la réplication locale RecoverPoint. Le VPLEX d'EMC peut être utilisé pour étendre la disponibilité continue au sein et entre les centres de données. Selon EMC, il a utilisé les DVR de télévision comme source d'inspiration pour son logiciel RecoverPoint Continuous Remote Replication.

Replication Manager et AppSync offrent une protection cohérente avec les applications avec les solutions EMC de sauvegarde et de restauration, notamment Data Domain, Avamar et Networker, afin de raccourcir les fenêtres de sauvegarde et les temps de restauration.

Test de l'arrière-plan et des supports de stockage

Nous publions un inventaire de notre environnement de laboratoire, un aperçu des capacités de mise en réseau du laboratoire, et d'autres détails sur nos protocoles de test afin que les administrateurs et les responsables de l'acquisition des équipements puissent évaluer équitablement les conditions dans lesquelles nous avons obtenu les résultats publiés. Afin de maintenir notre indépendance, aucune de nos évaluations n'est payée ou gérée par le fabricant de l'équipement que nous testons.

La revue EMC VNX5200 se distingue comme une approche de test plutôt unique par rapport à la façon dont nous évaluons habituellement les équipements. Dans notre processus d'examen standard, le fournisseur nous envoie la plate-forme, que nous connectons ensuite à nos plates-formes de test fixes pour des tests de performance. Avec le VNX5200, la taille et la complexité, ainsi que la configuration initiale, nous ont amenés à changer cette approche et à envoyer notre examinateur et notre équipement au laboratoire d'EMC. EMC a préparé un VNX5200 avec l'équipement et les options nécessaires pour les tests iSCSI et FC. EMC a fourni son propre commutateur FC 8 Go dédié, tandis que nous avons apporté l'un de nos commutateurs Mellanox 10/40 Go SX1024 pour la connectivité Ethernet. Pour stresser le système, nous avons utilisé un serveur EchoStreams OSS1A-1U, dépassant les spécifications matérielles de ce que nous utilisons dans notre environnement de laboratoire traditionnel.

EchoStreams OSS1A-1U Spécifications :

  • 2x Intel Xeon E5-2697 v2 (2.7 GHz, 30 Mo de cache, 12 cœurs)
  • Jeu de puces Intel C602A
  • Mémoire – 16 Go (2 x 8 Go) RDIMM enregistrés DDR1333 à 3 XNUMX MHz
  • Windows Server standard 2012 R2
    • SSD de démarrage : 100 Go Micron RealSSD P400e
  • 2x carte réseau Mellanox ConnectX-3 double port 10GbE
  • 2x HBA Fibre Channel Emulex LightPulse LPe16002 Gen 5 (8GFC, 16GFC) PCIe 3.0 double port

Notre évaluation du VNX5200 comparera ses performances dans des benchmarks synthétiques sur cinq configurations qui reflètent la manière dont les clients EMC déploient les systèmes VNX2 dans un environnement de production. Chaque configuration utilisait 8 LUN d'une taille de 25 Go.

  • Une matrice RAID10 composée de supports SSD avec connectivité Fibre Channel
  • Une matrice RAID10 composée de supports SSD avec connectivité iSCSI
  • Une matrice RAID6 composée de supports HDD 7k avec connectivité Fibre Channel
  • Une matrice RAID5 composée de supports HDD 10k avec connectivité Fibre Channel
  • Une matrice RAID5 composée de supports HDD 15k avec connectivité Fibre Channel.

Chaque configuration incorporait 24 disques et utilisait les configurations RAID les plus courantes avec leur déploiement dans un environnement de production.

Analyse synthétique de la charge de travail d'entreprise

Avant de lancer chacune des repères synthétiques fio, notre laboratoire préconditionne l'appareil dans un état stable sous une charge importante de 16 threads avec une file d'attente exceptionnelle de 16 threads. Ensuite, le stockage est testé à des intervalles définis avec plusieurs profils de profondeur de thread/file d'attente pour afficher les performances en cas d'utilisation légère et intensive.

Tests de préconditionnement et d'état stable primaire :

  • Débit (lecture + écriture IOPS agrégé)
  • Latence moyenne (latence de lecture + écriture moyennée ensemble)
  • Latence maximale (latence maximale de lecture ou d'écriture)
  • Écart-type de latence (écart-type de lecture + écriture moyenné ensemble)

Cette analyse synthétique intègre quatre profils largement utilisés dans les cahiers des charges et benchmarks des constructeurs :

  • 4k aléatoire - 100% lecture et 100% écriture
  • 8k séquentiel – 100 % lecture et 100 % écriture
  • 8k aléatoire - 70% lecture/30% écriture
  • 128k séquentiel – 100 % lecture et 100 % écriture

Après avoir été préconditionné pour des charges de travail 4k, nous avons soumis le VNX5200 à nos tests primaires. Ainsi, lorsqu'il est configuré avec des SSD et accessible via Fibre Channel, il affiche 80,472 33,527 IOPS en lecture et 10 5200 IOPS en écriture. En utilisant les mêmes SSD en RAID37,421 (mais cette fois en utilisant notre test au niveau du bloc iSCSI), le VNX22,309 a atteint 15 5 IOPS en lecture et 12,054 3,148 IOPS en écriture. Le passage à des disques durs 10K en RAID7,688 à l'aide de la connectivité Fibre Channel a montré 2,835 7 IOPS en lecture et 6 5200 IOPS en écriture, tandis que la configuration du disque dur 4,390K a atteint 1,068 XNUMX IOPS en lecture et XNUMX XNUMX IOPS en écriture. Lors de l'utilisation de disques durs XNUMXK dans une configuration RAIDXNUMX du même type de connectivité, le VNXXNUMX a affiché XNUMX XNUMX IOPS en lecture et XNUMX XNUMX IOPS en écriture.

Les résultats étaient sensiblement les mêmes en termes de latence moyenne. Lorsqu'il est configuré avec des SSD en RAID10 et en utilisant une connectivité Fibre Channel, il affiche 3.18 ms en lecture et 7.63 ms en écriture. Utilisant les mêmes SSD avec notre test au niveau du bloc iSCSI, le VNX5200 affichait 6.84 ms en lecture et 11.47 ms en écriture. Le passage aux disques durs 15K en RAID5 utilisant la connectivité Fibre Channel a montré une latence moyenne de 21.23 ms en lecture et 81.31 ms en écriture, tandis que la configuration du disque dur 10K affichait 33.29 ms en lecture et 90.31 ms en écriture. Lors du passage à des disques durs 7K dans une configuration RAID6 du même type de connectivité, le VNX5200 a affiché 58.29 ms en lecture et 239.64 ms en écriture.

Ensuite, nous passons à notre référence de latence maximale. Lorsqu'il est configuré avec des SSD en RAID10 et en utilisant notre test au niveau du bloc iSCSI, il a montré 197 ms en lecture et 421.8 ms en écriture. Utilisant les mêmes SSD, mais cette fois avec une connectivité Fibre Channel, le VNX5200 affichait 202.1 ms en lecture et 429.2 ms en écriture. Le passage aux disques durs 15K en RAID5 à l'aide de la connectivité Fibre Channel a enregistré 1,311.3 1,199.2 ms en lecture et 10 2,687.8 ms en écriture pour une latence maximale, tandis que la configuration du disque dur 2,228.1K affichait 7 6 ms en lecture et 5200 3,444.8 ms en écriture. Lors du passage à des disques durs 2,588.4K dans une configuration RAIDXNUMX du même type de connectivité, le VNXXNUMX a affiché XNUMX XNUMX ms en lecture et XNUMX XNUMX ms en écriture.

Notre dernière référence 4K est l'écart type, qui mesure la cohérence de la Performances du VNX5200. Lorsqu'il est configuré avec des SSD en RAID10 à l'aide de notre test au niveau du bloc iSCSI, le VNX5200 affiché 3.30 ms en lecture et 12.06 ms en écriture. L'utilisation des mêmes SSD avec la connectivité Fibre Channel affiche 9.20 ms en lecture et 14.32 ms en écriture. Le passage aux disques durs 15K en RAID5 avec connectivité Fibre Channel a enregistré 25.93 ms en lecture et 120.53 ms en écriture, tandis que la configuration du disque dur 10K affichait 35.37 ms en lecture et 175.66 ms en écriture. Lors de l'utilisation d'une configuration RAID7 de disques durs 6K du même type de connectivité, le VNX5200 affiche 52.75 ms en lecture et 254.55 ms en écriture.

Notre prochain benchmark utilise une charge de travail séquentielle composée d'opérations de lecture à 100 %, puis d'opérations d'écriture à 100 % avec une taille de transfert de 8 k. Ici, le VNX5200 a affiché 178,959 76,022 IOPS en lecture et 10 5 IOPS en écriture lorsqu'il est configuré avec des disques durs 15K dans la connectivité Fibre Channel RAID5. L'utilisation de disques durs 176,895K en RAID77,505 avec la connectivité Fibre Channel affiche 10 169,833 IOPS en lecture et 74,470 69,303 IOPS en écriture. Le passage aux SSD en RAID40,379 à l'aide d'une connectivité Fibre Channel a enregistré 7 6 IOPS en lecture et 5200 75,982 IOPS en écriture, tandis que le test au niveau du bloc SSD iSCSI a montré 76,122 XNUMX IOPS en lecture et XNUMX XNUMX IOPS en écriture. Lors de l'utilisation de disques durs XNUMXK dans une configuration RAIDXNUMX avec connectivité Fibre Channel, le VNXXNUMX a affiché XNUMX XNUMX IOPS en lecture et XNUMX XNUMX IOPS en écriture.

Notre prochaine série de charges de travail est composée d'un mélange d'opérations de lecture 8k (70%) et d'écriture (30%) jusqu'à une file d'attente 16 Threads 16, notre première étant le débit. Lorsqu'il est configuré avec des SSD en RAID10 à l'aide de la connectivité Fibre Channel, le VNX5200 affiche une gamme de 8,673 IOPS à 41,866 16 IOPS par 16T/XNUMXQ. L'utilisation des mêmes SSD lors de notre test au niveau du bloc iSCSI montre une gamme de 6,631 28,193 IOPS à XNUMX XNUMX IOPS. Le passage à des disques durs 15K en RAID5 avec connectivité Fibre Channel a enregistré une gamme de 1,204 XNUMX IOPS et du 6,411 XNUMX IOPS, tandis que la configuration du disque dur 10K affichait 826 IOPS et 5,113 16 IOPS en 16T/7Q. Lors de l'utilisation d'une configuration RAID6 de disques durs 5200K du même type de connectivité, le VNX267 a affiché une plage de 2,467 IOPS à XNUMX XNUMX IOPS.

Ensuite, nous avons examiné la latence moyenne. Lorsqu'il est configuré avec des SSD en RAID10 utilisant la connectivité Fibre Channel, le VNX5200 affiche une plage de 0.45 ms à 6.11 ms en 16T/16Q. L'utilisation des mêmes SSD lors de notre test au niveau du bloc iSCSI montre une plage de 0.59 ms à 9.07 ms. Le passage aux disques durs 15K en RAID5 avec connectivité Fibre Channel a enregistré une plage de 3.31 ms et 39.89 ms, tandis que la configuration du disque dur 10K affichait initialement 4.83 ms et 49.97 ms en 16T/16Q. Lors de l'utilisation d'une configuration RAID7 de disques durs 6K du même type de connectivité, le VNX5200 a affiché une plage de 14.93 ms à 103.52 ms.

En examinant ses résultats de latence maximale, lorsqu'il est configuré avec des SSD en RAID10 utilisant la connectivité Fibre Channel, le VNX5200 avait une plage de 27.85 ms à 174.43 ms en 16T/16Q. L'utilisation des mêmes SSD lors de notre test au niveau du bloc iSCSI montre une plage de 31.78 ms à 134.48 ms de latence maximale. Le passage aux disques durs 15K en RAID5 avec connectivité Fibre Channel a enregistré une plage de 108.48 ms et 2,303.72 10 ms, tandis que la configuration du disque dur 58.83K affichait 2,355.53 ms et 16 16 ms en 7T/6Q. Lors de l'utilisation d'une configuration RAID5200 de disques durs 82.74K du même type de connectivité, le VNX1,338.61 a affiché une plage de latence maximale de XNUMX ms à XNUMX XNUMX ms.

Notre prochaine charge de travail analyse l'écart type pour nos opérations de lecture 8k à 70 % et à 30 % en écriture. Utilisant des SSD en RAID10 utilisant la connectivité Fibre Channel, le VNX5200 a affiché une plage de seulement 0.18 ms à 10.83 ms en 16T/16Q. L'utilisation des mêmes SSD lors de notre test au niveau du bloc iSCSI montre une plage similaire de 0.21 ms à 11.54 ms de cohérence de latence. Le passage aux disques durs 15K en RAID5 avec connectivité Fibre Channel a enregistré une plage de 3.48 ms à 56.58 ms, tandis que la configuration du disque dur 10K affichait initialement 2.5 ms et 66.44 ms en 16T/16Q. Lors de l'utilisation d'une configuration RAID7 de disques durs 6K du même type de connectivité, le VNX5200 a affiché une plage d'écart type de 7.98 ms à 110.68 ms.

Notre benchmark synthétique final a utilisé des transferts séquentiels de 128k et une charge de travail de 100% d'opérations de lecture et 100% d'écriture. Dans ce scénario, le VNX5200 affiche 2.84 Go/s en lecture et 1.26 Go/s en écriture lorsqu'il est configuré avec des SSD à l'aide de notre test au niveau du bloc iSCSI. L'utilisation de disques durs 15K en RAID5 avec la connectivité Fibre Channel affiche 2.48 Go/s en lecture et 2.33 Go/s en écriture. En revenant aux SSD en RAID10 (cette fois en utilisant une connectivité Fibre Channel), il a enregistré 2.48 Go/s en lecture et 3.06 Go/s en écriture. Lors de l'utilisation de disques durs 7K dans une configuration RAID6 avec connectivité Fibre Channel, le VNX5200 affichait 2.47 Go/s en lecture et 2.68 Go/s en écriture, tandis que la configuration 10K HDD affichait 2.47 Go/s en lecture et 3.22 Go/s en écriture.

Conclusion

L'écosystème VNX d'EMC est bien établi sur le marché du stockage d'entreprise, mais VNX2 reflète la volonté de l'entreprise de revoir complètement l'architecture VNX afin de tirer le meilleur parti des avancées des technologies de processeur, de flash et de mise en réseau. Tout comme le VNXe3200, qui est orienté vers des déploiements plus petits, le VNX5200 démontre également qu'EMC prête attention aux entreprises de taille moyenne et aux bureaux distants/succursales qui ne sont peut-être pas en mesure de justifier le coût des systèmes plus grands de la famille VNX, mais qui veulent tout de même bénéficier de tous les avantages de l'entreprise . 

Utilisé conjointement avec FAST Suite, le VNX5200 est capable d'offrir la mise en cache flash et la hiérarchisation en tandem, une combinaison contre laquelle les pairs d'EMC ont du mal à rivaliser. Lors de nos tests, nous avons identifié les niveaux et les configurations de stockage communs pour illustrer avec une suite de tests limitée ce que les utilisateurs peuvent attendre du 5200. Les tests ont couvert des disques durs 7K sur des disques SSD, illustrant la flexibilité du système, offrant capacité, performances, ou les deux sur une variété d'options d'interface. 

En fin de compte, la plate-forme VNX2 peut gérer à peu près tout ce qui lui est proposé ; et c'est cette flexibilité qui permet à EMC de remporter des contrats au quotidien. Compte tenu de la combinaison d'options de stockage, de modules IO et de prise en charge NAS, les systèmes sont capables de gérer presque tout ce dont une organisation pourrait avoir besoin. Bien sûr, il existe des cas d'utilisation qui vont au-delà des 5200 que nous avons testés ici. La famille VNX s'agrandit considérablement (et diminue également avec le VNXe3200) pour répondre à ces besoins, que ce soit avec plus de puissance de calcul, d'allocation flash ou d'étagères de disques. 

Avantages

  • Une variété d'options de connectivité via les modules d'E/S UltraFlex
  • Configurations prenant en charge les scénarios de stockage de blocs, de fichiers et unifiés
  • Accès au robuste écosystème VNX d'outils d'administration et d'intégrations tierces

Inconvénients

  • Maximum de 600 Go de FAST Cache

Conclusion

L'EMC VNX5200 est une entrée clé dans leur nouvelle vague de baies de stockage unifiées conçues pour tirer parti du stockage flash, des processeurs multicœurs et des environnements de réseau de centres de données modernes. Son prix abordable, sa flexibilité de configuration et son accès au logiciel de gestion VNX2 et aux intégrations tierces en font un package global formidable pour le marché intermédiaire.

Page produit EMC VNX5200

Discutez de cet avis