EMC's VNX5200-opslagcontroller is het toegangspunt voor het VNX2-aanbod van het bedrijf en biedt blokopslag met optionele bestands- en uniforme opslagfunctionaliteit. De VNX5200 kan tot 125x 2.5-inch of 3.5-inch SAS en NL-SAS harde schijven en SSD's beheren en is gebouwd met EMC's MCx multicore-architectuur. Kevin O'Brien, directeur van het StorageReview Enterprise Test Lab, reisde onlangs naar het datacenter van EMC in Hopkinton, MA voor wat hands-on tijd en benchmarks van de VNX5200.
EMC's VNX5200-opslagcontroller is het toegangspunt voor het VNX2-aanbod van het bedrijf en biedt blokopslag met optionele bestands- en uniforme opslagfunctionaliteit. De VNX5200 kan tot 125x 2.5-inch of 3.5-inch SAS en NL-SAS harde schijven en SSD's beheren en is gebouwd met EMC's MCx multicore-architectuur. Kevin O'Brien, directeur van het StorageReview Enterprise Test Lab, reisde onlangs naar het datacenter van EMC in Hopkinton, MA voor wat hands-on tijd en benchmarks van de VNX5200.
In September vorig jaar, heeft EMC hun populaire VNX-lijn van uniforme opslagarrays geüpdatet met aanzienlijke hardwareverbeteringen. Het resultaat was de VNX2-line-up, met verbeteringen zoals een overstap van PCIe 2.0 naar PCIe 3.0 en de nieuwe MCx-architectuur (inclusief multicore RAID, multicore cache en multicore FAST Cache) om beter te profiteren van meerdere CPU-cores in de opslagprocessors.
Veel van deze verbeteringen zijn erop gericht het VNX-platform in staat te stellen beter gebruik te maken van flash in een tijd waarin opslagbeheerders blijven evolueren naar hybride array-configuraties. Volgens EMC wordt bijna 70% van de VNX2-systemen nu geleverd in hybride flash-configuraties, een verschuiving die ook meer belang heeft gehecht aan de rol van EMC's FAST-suite voor caching en tiering.
Terwijl de kleinere VNXe3200 die we eerder hebben beoordeeld is ook geüpdatet met VNX2-technologieën, is de VNX5200 ontworpen voor klanten in het middensegment die een primair opslagsysteem op hun hoofdkantoor nodig hebben en voor behoeften op afstand/vestigingen die robuuster zijn dan wat de VNXe3200 aankan. De VNX5200 kan worden geconfigureerd voor blok-, bestands- of uniforme opslag en maakt gebruik van een 3U, 25x 2.5-inch EMC Disk Processor Enclosure (DPE) chassis. De opslagprocessoreenheden van de VNX5200 bevatten een 1.2 GHz, vier-core Xeon E5-processor met 16 GB RAM en kunnen maximaal 125 schijven beheren met FC-, iSCSI-, FCoE- en NAS-connectiviteit.
De VNX2-familie omvat momenteel ook vijf opslagsystemen die zijn ontworpen voor grotere schalen dan de VNXe3200 en de VNX5200.
- VNX5400: tot 1 PB aan onbewerkte capaciteit over 250 schijven, tot 1 TB aan SSD FAST Cache en tot 8 UltraFlex I/O-modules per array
- VNX5600: tot 2 PB aan onbewerkte capaciteit over 500 schijven, tot 2 TB aan SSD FAST Cache en tot 10 UltraFlex I/O-modules per array
- VNX5800: tot 3 PB aan onbewerkte capaciteit over 750 schijven, tot 3 TB aan SSD FAST Cache en tot 10 UltraFlex I/O-modules per array
- VNX7600: tot 4 PB aan onbewerkte capaciteit over 1,000 schijven, tot 4.2 TB aan SSD FAST Cache en tot 10 UltraFlex I/O-modules per array
- VNX8000: tot 6 PB aan onbewerkte capaciteit over 1,500 schijven, tot 4.2 TB aan SSD FAST Cache en tot 22 UltraFlex I/O-modules per array
VNX5200-blokopslag wordt aangedreven door dubbele VNX-opslagprocessors met een 6Gb SAS-schijftopologie. Een VNX2-implementatie kan een of meer Data Movers en een controllereenheid gebruiken om NAS-services aan te bieden. Net als andere leden van de VNX-serie gebruikt de VNX5200 UltraFlex I/O-modules voor zowel de Data Movers als de blokopslagprocessors. De VNX5200 ondersteunt maximaal drie Data Movers en maximaal drie UltraFlex-modules per Data Mover.
MCx Multi-Core-functionaliteit
VNX dateert van vóór de wijdverbreide multicore-processortechnologie en eerdere generaties van het platform waren niet gebouwd op een fundament dat dynamische CPU-schaling kon benutten. Met FLARE, de VNX1- en CLARiiON CX-besturingsomgeving, konden services, waaronder RAID, worden uitgevoerd op een specifieke CPU-kern, maar het single-threaded-paradigma van FLARE betekende dat veel kernfuncties gebonden waren aan de eerste CPU-kern. Alle inkomende I/O-processen werden bijvoorbeeld afgehandeld door Core 0 voordat ze werden gedelegeerd naar andere kernen, wat leidde tot knelpuntscenario's.
MCx implementeert wat EMC kenmerkt als horizontale multicore-systeemschaling, waardoor alle services over alle cores kunnen worden verspreid. Onder deze nieuwe architectuur die beschikbaar is op zowel VNX2 als de VNXe3200, is het minder waarschijnlijk dat inkomende I/O-processen een bottleneck vormen, omdat bijvoorbeeld front-end Fibre Channel-poorten gelijkmatig kunnen worden verdeeld over verschillende processorkernen. MCx implementeert ook I/O-kernaffiniteit via het concept van voorkeurskernen. Elke poort, front-end en back-end, heeft zowel een voorkeurskern als een alternatieve kerntoewijzing. De systeemservices hosten verzoeken met dezelfde front-end-kern waar de verzoeken vandaan komen om te voorkomen dat cache en context tussen kernen worden uitgewisseld.
Een groot voordeel van de nieuwe MCx-architectuur is de ondersteuning van symmetrische actieve/actieve LUN's, waardoor hosts gelijktijdig toegang hebben tot LUN's via beide Storage Processors in de array. In tegenstelling tot de asymmetrische implementatie van FLARE, kunnen beide SP's in de symmetrische actieve/actieve modus rechtstreeks naar de LUN schrijven zonder updates naar de primaire opslagprocessor te hoeven sturen.
Op dit moment ondersteunen VNX2-systemen symmetrische actieve/actieve toegang voor klassieke RAID-groep-LUN's, maar ondersteunen ze geen actief/actief voor privé-pool-LUN's die in plaats daarvan gebruik kunnen maken van de asymmetrische actief/actief-modus. Private pool LUN's of "Classic LUN's" kunnen momenteel geen gebruik maken van de symmetrische actief/actief-modus als ze andere Data Services gebruiken dan de VNX RecoverPoint-splitter.
Een van de overtuigende synergieën van de VNX5200 tussen de MCx-architectuur en flash-mediaopslag is de systeemondersteuning voor de EMC FAST Suite, waarmee beheerders kunnen profiteren van flash-opslagmedia om de arrayprestaties over heterogene schijven te verbeteren. De FAST Suite combineert twee benaderingen voor het gebruik van flash om opslagprestaties te versnellen - caching en tiering - in een geïntegreerde oplossing. VNX2-updates voor de FAST Suite omvatten vier keer betere gelaagdheid en ondersteuning voor nieuwe eMLC-flashdrives.
Met VNX FAST Cache kan tot 4.2 TB SSD-opslag worden gebruikt om zeer actieve gegevens te verwerken en zich dynamisch aan te passen aan pieken in de werklast, hoewel de maximale cachegrootte van de VNX5200 600 GB is. Naarmate gegevens ouder worden en in de loop van de tijd minder actief worden, rangschikt FAST VP de gegevens van schijven met hoge prestaties naar schijven met hoge capaciteit in stappen van 256 MB op basis van door de beheerder gedefinieerd beleid.
EMC VNX5200-specificaties
- Array-behuizing: 3U schijfprocessorbehuizing
- Drive-behuizingen:
- 2.5-inch SAS/Flash (2U), 25 schijven
- 3.5-inch SAS/Flash (3U), 15 schijven
- Max. SAN-hosts: 1,024
- Min/Max aandrijvingen: 4/125
- Maximale FAST-cache: 600 GB
- CPU/geheugen per array: 2x Intel Xeon E5-2600 4-core 1.2 GHz/32 GB
- RAID: 0/1/10/3/5/6
- Maximale onbewerkte capaciteit: 500 TB
- Protocollen: FC, FCoE, NFS, CIFS, iSCSI,
- Opslagtypen: Unified, SAN, NAS, Object
- Schijftypen: Flash SSD, SAS, NL-SAS
- Capaciteitsoptimalisatie: Thin Provisioning, blokdeduplicatie, blokcompressie, deduplicatie en compressie op bestandsniveau
- Prestaties: MCx, FAST VP, FAST Cache
- Beheer: EMC Unisphere
- Ondersteuning voor virtualisatie: VMware vSphere, VMware Horizon View, Microsoft Hyper-V, Citrix XenDesktop
- Max Block UltraFlex I/O-modules per array: 6
- Maximaal aantal poorten per array: 28
- 2/4/8Gb/s FC Max. poorten per array: 24
- 1GBASE-T iSCSI Max totaal aantal poorten per array: 16
- Max. FCoE-poorten per array: 12
- 10GbE iSCSI Max Totaal aantal poorten per array: 12
- Controlestations: 1 of 2
- Max ondersteunde LUN's: 1,000 (gepoold)
- Maximale LUN-grootte: 256 TB (virtuele pool-LUN)
- Maximale bestandssysteemgrootte: 16 TB
- Aantal verhuizers van bestandsgegevens: 1, 2 of 3
- CPU/geheugen per Data Mover: Intel Xeon 5600/6GB
- UltraFlex I/O-uitbreidingsmodules voor Block:
- 4-poorts 2/4/8Gb/s glasvezelkanaal
- 4-poorts 1Gb/s (koper) iSCSI
- 2-poorts 10Gb/s (optisch) iSCSI
- 2-poorts 10GBASE-T (koper) iSCSI
- 2-poorts 10GbE (optisch of twinax) FCoE
- UltraFlex I/O-uitbreidingsmodules voor File:
- 4-poorts 1GBASE-T
- 4-poorts 1GBASE-T en 1GbE (optisch)
- 2-poorts 10GbE (optisch)
- 2-poorts 10GBASE-T (koper)
Ontwerp en bouw
In VNX-terminologie bestaat een storage-implementatie uit verschillende geïntegreerde rackcomponenten. De controllercomponent is ofwel een Storage-Processor Enclosure (SPE) die geen drivebays bevat, of zoals bij deze VNX5200, een Disk-Processor Enclosure (DPE) die wel interne opslag biedt. VNX Disk Array Enclosures (DAE's) kunnen worden gebruikt om extra opslagcapaciteit op te nemen.
Een SPE omvat de VNX-opslagprocessors naast dubbele SAS-modules, dubbele voedingen en ventilatorpakketten. Disk-Processor Enclosures (DPE's) omvatten een behuizing, schijfmodules, opslagprocessors, dubbele voedingen en vier ventilatorpakketten. Het toevoegen van extra opslagruimte door het gebruik van DAE's kan worden gedaan door het gebruik van 15x 3.5-inch, 25x 2.5-inch of 60x 3.5-inch schijfposities met dubbele SAS-link-besturingskaarten en dubbele voedingen.
Of ze nu deel uitmaken van een opslagprocessorbehuizing of een schijfprocessorbehuizing, VNX-opslagprocessors bieden gegevenstoegang tot externe hosts en overbruggen de blokopslag van de array met optionele VNX2-functionaliteit voor bestandsopslag. De VNX5200 kan profiteren van een verscheidenheid aan EMC's UltraFlex IO-modules om de connectiviteit aan te passen.
Opties UltraFlex Block IO-module:
- Vierpoorts 8Gb/s Fibre Channel-module met optische SFP- en OM2/OM3-bekabeling voor aansluiting op een HBA- of FC-switch.
- Vierpoorts 1Gb/s iSCSI-module met een TCP-offload-engine en vier 1GBaseT Cat6-poorten.
- Tweepoorts 10Gb/s Opt iSCSI-module met een TCP-offload-engine, twee 10Gb/s Ethernet-poorten en een SFP+ optische verbinding of een twinax koperverbinding met een Ethernet-switch.
- Tweepoorts 10GBaseT iSCSI-module met een TCP-offload-engine en twee 10GBaseT Ethernet-poorten
- Tweepoorts 10GbE FCoE-module met twee 10Gb/s Ethernet-poorten en een SFP+ optische aansluiting of een twinax koperaansluiting
- Vierpoorts 6Gb/s SAS V2.0-module voor backend-connectiviteit met VNX Block Storage Processors. Elke SAS-poort heeft vier rijstroken per poort met 6 Gb/s voor een nominale doorvoer van 24 Gb/s. Deze module is ontworpen voor PCIe 3-connectiviteit en kan worden geconfigureerd als 4x4x6 of 2x8x6.
Om de VNX5200 te configureren voor bestandsopslag of uniforme opslag, moet deze worden gebruikt in combinatie met een of meer Data Mover-eenheden. De VNX Data Mover Enclosure (DME) is 2U groot en herbergt de Data Movers. Data Movers gebruiken 2.13 GHz vier-core Xeon 5600-processors met 6 GB RAM per Data Mover en kunnen een maximale opslagcapaciteit van 256 TB per Data Mover aan. De data mover-behuizing kan werken met één, twee of drie data movers.
Controlestations zijn 1U groot en bieden beheerfuncties aan de Data Movers, inclusief controles voor failover. Een controlestation kan worden ingezet met een secundair controlestation voor redundantie. UltraFlex File IO Module-opties omvatten:
- Vierpoorts 1GBase-T IP-module met vier RJ-45-poorten voor Cat6-kabels
- Tweepoorts 10GbE Opt IP-module met twee 10Gb/s Ethernet-poorten en een keuze uit een SFP+ optische verbinding of een twinax koperverbinding met een Ethernet-switch
- Tweepoorts 10 GBase-T IP-module met koperen verbindingen naar een Ethernet-switch
- Vierpoorts 8Gb/s Fibre Channel-module met optische SFP- en OM2/OM3-bekabeling voor rechtstreekse aansluiting op een captive array en voor een NDMP-tapeverbinding
Beheer en gegevensservices
De VNX-familie maakt gebruik van EMC's Unisphere-beheersoftware. Onze algemene indruk van Unisphere is dat het een schone en goed georganiseerde interface biedt die toegankelijk is voor IT-generalisten, terwijl ervaren opslagbeheerders ook toegang krijgen tot de volledige functionaliteit van het systeem.
Unisphere bevat snapshot-functionaliteit met configuratie-opties voor een automatisch verwijderingsbeleid dat snapshots verwijdert (1) na een bepaalde tijd of (2) zodra de opslagruimte voor snapshots een bepaald percentage van de opslagcapaciteit overschrijdt. VNX-snapshots kunnen gebruikmaken van EMC's thin provisioning- en redirect-on-write-technologieën om de snelheid te verbeteren en de opslagvereisten voor opgeslagen snapshots te verminderen.
VNX gebruikt algoritmen voor blok- en bestandscompressie die zijn ontworpen voor relatief inactieve LUN's en bestanden, waardoor zowel de compressie- als deduplicatiebewerkingen op de achtergrond kunnen worden uitgevoerd met verminderde prestatieoverhead. VNX's fixed-block deduplicatie is gebouwd met 8KB granulariteit voor scenario's zoals virtuele machines, virtuele desktops en test-/ontwikkelomgevingen waarbij veel te winnen valt bij deduplicatie. Deduplicatie kan worden ingesteld op pool-LUN-niveau en dunne, dikke en ontdubbelde LUN's kunnen worden opgeslagen in een enkele pool.
Unisphere Central biedt gecentraliseerde multi-box monitoring voor maximaal duizenden VNX- en VNXe-systemen, bijvoorbeeld systemen die worden ingezet in externe kantoren en filialen. De Unisphere-suite bevat ook VNX Monitoring- en rapportagesoftware voor opslaggebruik en werkbelastingpatronen om probleemdiagnose, trendanalyse en capaciteitsplanning te vergemakkelijken.
In gevirtualiseerde omgevingen kan de VNX5200 EMC's Virtual Storage Integrator voor VMware vSphere 5 inzetten voor provisioning, beheer, klonen en deduplicatie. Voor VMware biedt de VNX5200 API-integraties voor VAAI en VASA, en in Hyper-V-omgevingen kan hij worden geconfigureerd voor Offloaded Data Transfer en Offload Copy for File. De EMC Storage Integrator biedt inrichtingsfunctionaliteit voor Hyper-V en SharePoint. EMC Site Recovery Manager-software kan ook failover en failback beheren in noodherstelsituaties.
VNX2-arrays van de VNX5200 tot en met de VNX8000 bieden EMC's nieuwe controller-gebaseerde data-at-rest-codering, genaamd D@RE, die alle gebruikersgegevens op schijfniveau versleutelt. D@RE gebruikt AES 256-codering en is in afwachting van validatie voor FIPS-140-2 Level 1-compliance. Nieuwe D@RE-compatibele VNX-arrays worden geleverd met de meegeleverde versleutelingshardware, en bestaande VNX2-systemen kunnen in het veld worden geüpgraded om D@RE te ondersteunen en bestaande opslag niet-verstorend te versleutelen als achtergrondtaak.
D@RE versleutelt alle gegevens die naar de array worden geschreven met behulp van een regulier gegevenspadprotocol met een unieke sleutel per schijf. Als er om welke reden dan ook schijven uit de array worden verwijderd, is de informatie over de schijf onbegrijpelijk. D@RE bevat ook crypto-erase-functionaliteit omdat de coderingssleutels worden verwijderd wanneer een RAID-groep of opslagpool wordt verwijderd.
VNX2 biedt functionaliteit voor gespiegelde schrijfcache, waarbij elke opslagprocessor zowel primaire gegevens in de cache voor zijn LUN's als een secundaire kopie van de cache voor de peer-opslagprocessor bevat. RAID-niveaus 0, 1, 1/0, 5 en 6 kunnen naast elkaar bestaan in dezelfde array en de proactieve hot-sparingfunctie van het systeem verhoogt de gegevensbescherming verder. Het systeem maakt gebruik van geïntegreerde back-upbatterijen voor cache-destaging en andere overwegingen voor een ordelijke afsluiting tijdens stroomstoringen.
Lokale bescherming is beschikbaar via Unisphere's point-in-time snapshot-functie, en continue gegevensbescherming is beschikbaar via RecoverPoint lokale replicatie. EMC's VPLEX kan worden gebruikt om de continue beschikbaarheid binnen en tussen datacenters uit te breiden. Volgens EMC gebruikte het televisie-DVR's als inspiratie voor zijn RecoverPoint Continuous Remote Replication-software.
Replication Manager en AppSync bieden applicatieconsistente bescherming met EMC-oplossingen voor back-up en herstel, waaronder Data Domain, Avamar en Networker om de back-upvensters en hersteltijden te verkorten.
Achtergrond- en opslagmedia testen
Wij publiceren een inventarisatie van onze labomgevingeen overzicht van de netwerkmogelijkheden van het lab, en andere details over onze testprotocollen, zodat beheerders en degenen die verantwoordelijk zijn voor de aanschaf van apparatuur redelijkerwijs kunnen inschatten onder welke omstandigheden we de gepubliceerde resultaten hebben behaald. Om onze onafhankelijkheid te behouden, wordt geen van onze reviews betaald of beheerd door de fabrikant van de apparatuur die we testen.
De EMC VNX5200-test valt op als een vrij unieke testbenadering in vergelijking met hoe we apparatuur gewoonlijk evalueren. In ons standaard beoordelingsproces stuurt de leverancier ons het platform, dat we vervolgens verbinden met onze vaste testplatforms voor prestatiebenchmarks. Met de VNX5200 zorgden de grootte en complexiteit, evenals de initiële installatie ervoor dat we deze benadering veranderden en onze recensent en apparatuur naar het laboratorium van EMC vlogen. EMC bereidde een VNX5200 voor met de apparatuur en opties die nodig zijn voor iSCSI- en FC-testen. EMC leverde hun eigen speciale 8Gb FC-switch, terwijl we een van onze Mellanox 10/40Gb SX1024-switches meebrachten voor Ethernet-connectiviteit. Om het systeem te benadrukken, hebben we een EchoStreams OSS1A-1U-server gebruikt, die de hardwarespecificaties overtreft van wat we gebruiken in onze traditionele laboratoriumomgeving.
EchoStreams OSS1A-1U Specificaties:
- 2x Intel Xeon E5-2697 v2 (2.7 GHz, 30 MB cache, 12 cores)
- Intel C602A-chipset
- Geheugen – 16 GB (2x 8 GB) 1333 MHz DDR3 geregistreerde RDIMM's
- Windows Server Standard 2012 R2
- Opstart-SSD: 100 GB Micron RealSSD P400e
- 2x Mellanox ConnectX-3 10GbE NIC met dubbele poort
- 2x Emulex LightPulse LPe16002 Gen 5 Fibre Channel (8GFC, 16GFC) PCIe 3.0 dubbele poort HBA
Onze evaluatie van de VNX5200 zal zijn prestaties vergelijken in synthetische benchmarks over vijf configuraties die weerspiegelen hoe EMC-klanten VNX2-systemen inzetten in een productieomgeving. Elke configuratie maakte gebruik van 8 LUN's van 25 GB.
- Een RAID10-array bestaande uit SSD-media met Fibre Channel-connectiviteit
- Een RAID10-array bestaande uit SSD-media met iSCSI-connectiviteit
- Een RAID6-array bestaande uit 7k HDD-media met Fibre Channel-connectiviteit
- Een RAID5-array bestaande uit 10k HDD-media met Fibre Channel-connectiviteit
- Een RAID5-array bestaande uit 15k HDD-media met Fibre Channel-connectiviteit.
Elke configuratie omvatte 24 schijven en gebruikte RAID-configuraties die het meest voorkomen bij implementatie in een productieomgeving.
Enterprise synthetische werklastanalyse
Voorafgaand aan het starten van elk van de fio synthetische benchmarks, preconditioneert ons laboratorium het apparaat in een stabiele toestand onder een zware belasting van 16 threads met een uitstekende wachtrij van 16 per thread. Vervolgens wordt de opslag in vaste intervallen getest met meerdere thread/wachtrij-diepteprofielen om de prestaties bij licht en zwaar gebruik te tonen.
Voorconditionering en primaire steady-state tests:
- Doorvoer (lezen+schrijven IOPS geaggregeerd)
- Gemiddelde latentie (lees- en schrijflatentie samen gemiddeld)
- Maximale latentie (piek lees- of schrijflatentie)
- Latentie Standaarddeviatie (Lezen + Schrijven Standaarddeviatie samen gemiddeld)
Deze synthetische analyse bevat vier profielen die veel worden gebruikt in fabrikantspecificaties en benchmarks:
- 4k willekeurig - 100% lezen en 100% schrijven
- 8k sequentieel – 100% lezen en 100% schrijven
- 8k willekeurig – 70% lezen/30% schrijven
- 128k sequentieel – 100% lezen en 100% schrijven
Nadat we zijn voorbereid voor 4k-workloads, hebben we de VNX5200 aan onze primaire tests onderworpen. Als zodanig, indien geconfigureerd met SSD's en toegankelijk via Fibre Channel, boekte het 80,472 IOPS lezen en 33,527 IOPS schrijven. Met dezelfde SSD's in RAID10 (hoewel deze keer met onze iSCSI-blokniveautest), behaalde de VNX5200 37,421 IOPS lezen en 22,309 IOPS schrijven. Overschakelen naar 15K HDD's in RAID5 met behulp van Fibre Channel-connectiviteit toonde 12,054 IOPS lezen en 3,148 IOPS schrijven, terwijl de 10K HDD-configuratie 7,688 IOPS gelezen en 2,835 IOPS schrijven bereikte. Bij gebruik van 7K HDD's in een RAID6-configuratie van hetzelfde connectiviteitstype, plaatste de VNX5200 4,390 IOPS lezen en 1,068 IOPS schrijven.
De resultaten waren vrijwel hetzelfde wat betreft de gemiddelde latentie. Wanneer geconfigureerd met SSD's in RAID10 en met behulp van een Fibre Channel-connectiviteit, toonde het 3.18 ms lezen en 7.63 ms schrijven. Door dezelfde SSD's te gebruiken met onze iSCSI-test op blokniveau, behaalde de VNX5200 6.84 ms lezen en 11.47 me schrijven. Overschakelen naar 15K HDD's in RAID5 met behulp van Fibre Channel-connectiviteit toonde 21.23 ms lezen en 81.31 ms schrijven in gemiddelde latentie, terwijl de 10K HDD-configuratie 33.29 ms lezen en 90.31 ms schrijven liet zien. Bij het overschakelen naar 7K HDD's in een RAID6-configuratie van hetzelfde connectiviteitstype, rapporteerde de VNX5200 58.29 ms lezen en 239.64 ms schrijven.
Vervolgens gaan we naar onze maximale latentiebenchmark. Wanneer geconfigureerd met SSD's in RAID10 en met behulp van onze iSCSI-blokniveautest, toonde het 197 ms lezen en 421.8 ms schrijven. Met dezelfde SSD's, maar dit keer met Fibre Channel-connectiviteit, had de VNX5200 een leessnelheid van 202.1 ms en een schrijfsnelheid van 429.2 ms. Overschakelen naar 15K HDD's in RAID5 met behulp van Fibre Channel-connectiviteit registreerde 1,311.3 ms lezen en 1,199.2 ms schrijven voor maximale latentie, terwijl de 10K HDD-configuratie 2,687.8 ms lezen en 2,228.1 ms schrijven boekte. Bij het overschakelen naar 7K HDD's in een RAID6-configuratie van hetzelfde connectiviteitstype, rapporteerde de VNX5200 3,444.8 ms lezen en 2,588.4 ms schrijven.
Onze laatste 4K-benchmark is de standaarddeviatie, die de consistentie meet van de De prestaties van de VNX5200. Indien geconfigureerd met SSD's in RAID10 met behulp van onze iSCSI-blokniveautest, is de VNX5200 gepost 3.30ms lezen en 12.06ms schrijven. Het gebruik van dezelfde SSD's met Fibre Channel-connectiviteit geeft 9.20 ms lezen en 14.32 ms schrijven aan. Overschakelen naar 15K HDD's in RAID5 met Fibre Channel-connectiviteit registreerde 25.93 ms lezen en 120.53 ms schrijven, terwijl de 10K HDD-configuratie 35.37 ms lezen en 175.66 ms schrijven boekte. Bij gebruik van 7K HDD's RAID6-configuratie van hetzelfde connectiviteitstype, postte de VNX5200 52.75 ms lezen en 254.55 ms schrijven.
Onze volgende benchmark gebruikt een sequentiële werkbelasting die bestaat uit 100% leesbewerkingen en vervolgens 100% schrijfbewerkingen met een overdrachtsgrootte van 8k. Hier plaatste de VNX5200 178,959 IOPS gelezen en 76,022 IOPS schrijven wanneer geconfigureerd met 10K HDD's in RAID5 Fibre Channel-connectiviteit. Bij gebruik van 15 HDD's in RAID5 met Fibre Channel-connectiviteit worden 176,895 IOPS gelezen en 77,505 IOPS geschreven. Overschakelen naar SSD's in RAID10 met behulp van een Fibre Channel-connectiviteit registreerde 169,833 IOPS gelezen en 74,470 IOPS schrijven, terwijl de SSD iSCSI-blokniveautest 69,303 IOPS gelezen en 40,379 IOPS schrijven liet zien. Bij gebruik van 7K HDD's in een RAID6-configuratie met Fibre Channel-connectiviteit boekte de VNX5200 75,982 IOPS gelezen en 76,122 IOPS schrijven.
Onze volgende reeks workloads bestaat uit een mix van 8k lees- (70%) en schrijf- (30%) operaties tot een 16 Threads 16 Queue, onze eerste is doorvoer. Wanneer geconfigureerd met SSD's in RAID10 met behulp van Fibre Channel-connectiviteit, boekte de VNX5200 een bereik van 8,673 IOPS naar 41,866 IOPS door 16T/16Q. Het gebruik van dezelfde SSD's tijdens onze iSCSI-test op blokniveau toont een bereik van 6,631 IOPS tot 28,193 IOPS. Overschakelen naar 15K HDD's in RAID5 met Fibre Channel-connectiviteit registreerde een reeks van 1,204 IOPS en 6,411 IOPS, terwijl de 10K HDD-configuratie 826 IOPS en 5,113 IOPS boekte met 16T/16Q. Bij gebruik van 7K HDD's RAID6-configuratie van hetzelfde connectiviteitstype, boekte de VNX5200 een bereik van 267 IOPS tot 2,467 IOPS.
Vervolgens keken we naar de gemiddelde latentie. Wanneer geconfigureerd met SSD's in RAID10 met behulp van Fibre Channel-connectiviteit, boekte de VNX5200 een bereik van 0.45 ms tot 6.11 ms bij 16T/16Q. Het gebruik van dezelfde SSD's tijdens onze iSCSI-test op blokniveau toont een bereik van 0.59 ms tot 9.07 ms. Overschakelen naar 15K HDD's in RAID5 met Fibre Channel-connectiviteit registreerde een bereik van 3.31 ms en 39.89 ms, terwijl de 10K HDD-configuratie aanvankelijk 4.83 ms en 49.97 ms bij 16T/16Q boekte. Bij gebruik van 7K HDD's RAID6-configuratie van hetzelfde connectiviteitstype, boekte de VNX5200 een bereik van 14.93 ms tot 103.52 ms.
Als we kijken naar de maximale latentieresultaten, wanneer geconfigureerd met SSD's in RAID10 met behulp van Fibre Channel-connectiviteit, had de VNX5200 een bereik van 27.85 ms tot 174.43 ms bij 16T/16Q. Het gebruik van dezelfde SSD's tijdens onze iSCSI-test op blokniveau toont een bereik van 31.78 ms tot 134.48 ms in maximale latentie. Overschakelen naar 15K HDD's in RAID5 met Fibre Channel-connectiviteit registreerde een bereik van 108.48 ms en 2,303.72 ms, terwijl de 10K HDD-configuratie 58.83 ms en 2,355.53 ms liet zien bij 16T/16Q. Bij gebruik van 7K HDD's RAID6-configuratie van hetzelfde connectiviteitstype, boekte de VNX5200 een maximaal latentiebereik van 82.74 ms tot 1,338.61 ms.
Onze volgende werklast analyseert de standaarddeviatie voor onze 8k 70% lees- en 30% schrijfbewerkingen. Met behulp van SSD's in RAID10 met behulp van Fibre Channel-connectiviteit, boekte de VNX5200 een bereik van slechts 0.18 ms tot 10.83 ms bij 16T/16Q. Het gebruik van dezelfde SSD's tijdens onze iSCSI-test op blokniveau toont een vergelijkbaar bereik van 0.21 ms tot 11.54 ms in latentieconsistentie. Overschakelen naar 15K HDD's in RAID5 met Fibre Channel-connectiviteit registreerde een bereik van 3.48 ms tot 56.58 ms, terwijl de 10K HDD-configuratie aanvankelijk 2.5 ms liet zien en 66.44 ms bij 16T/16Q. Bij gebruik van 7K HDD's RAID6-configuratie van hetzelfde connectiviteitstype, boekte de VNX5200 een standaarddeviatiebereik van 7.98 ms tot 110.68 ms.
Onze laatste synthetische benchmark maakte gebruik van sequentiële 128k-overdrachten en een werklast van 100% lees- en 100% schrijfbewerkingen. In dit scenario boekte de VNX5200 een leessnelheid van 2.84 GB/s en een schrijfsnelheid van 1.26 GB/s bij configuratie met SSD's met behulp van onze iSCSI-blokniveautest. Het gebruik van 15 HDD's in RAID5 met Fibre Channel-connectiviteit toont 2.48 GB/s lezen en 2.33 GB/s schrijven. Terugschakelen naar SSD's in RAID10 (dit keer met behulp van een Fibre Channel-connectiviteit) registreerde het 2.48 GB/s lezen en 3.06 GB/s schrijven. Bij gebruik van 7K HDD's in een RAID6-configuratie met Fibre Channel-connectiviteit boekte de VNX5200 2.47 GB/s lezen en 2.68 GB/s schrijven, terwijl de 10K HDD-configuratie 2.47 GB/s las en 3.22 GB/s schrijven.
Conclusie
Het VNX-ecosysteem van EMC is goed ingeburgerd in de markt voor bedrijfsopslag, maar VNX2 weerspiegelt de bereidheid van het bedrijf om de VNX-architectuur volledig te herzien om het meeste te halen uit de vooruitgang op het gebied van processor-, flash- en netwerktechnologieën. Net als de VNXe3200, dat gericht is op kleinere implementaties, laat de VNX5200 ook zien dat EMC aandacht besteedt aan middelgrote bedrijven en externe/bijkantoren die misschien niet in staat zijn de kosten van de grotere systemen in de VNX-familie te rechtvaardigen, maar toch alle bedrijfsvoordelen willen .
Gebruikt in combinatie met de FAST Suite, kan de VNX5200 flash-caching en tiering tegelijk bieden, een combinatie waar EMC's collega's moeite mee hebben om te concurreren. Tijdens onze tests hebben we de gebruikelijke niveaus en configuraties van opslag uitgesplitst om met een beperkte testsuite te illustreren wat gebruikers kunnen verwachten van de 5200. Tests hadden betrekking op 7K HDD tot SSD's, ter illustratie van de flexibiliteit van het systeem, het leveren van capaciteit, prestaties, of beide via verschillende interface-opties.
Uiteindelijk kan het VNX2-platform zo ongeveer alles aan wat op zijn weg komt; en het is die flexibiliteit die dagelijks EMC-deals wint. Gezien de combinatie van opslagopties, IO-modules en NAS-ondersteuning kunnen de systemen bijna alles aan wat een organisatie nodig zou kunnen hebben. Natuurlijk zijn er use cases die verder gaan dan de 5200 die we hier hebben getest. De VNX-familie schaalt behoorlijk op (en ook wat af met de VNXe3200) om aan deze behoeften te voldoen, of het nu gaat om meer rekenkracht, flash-toewijzing of schijfplanken.
VOORDELEN
- Een verscheidenheid aan connectiviteitsopties via UltraFlex I/O-modules
- Configuraties die blok-, bestands- en uniforme opslagscenario's ondersteunen
- Toegang tot het robuuste VNX-ecosysteem van beheertools en integraties van derden
NADELEN
- Maximaal 600 GB FAST Cache
Tot slot
De EMC VNX5200 is een belangrijke instap in hun nieuwe golf van uniforme opslagarrays die zijn ontworpen om te profiteren van flash-opslag, multi-core CPU's en moderne datacenternetwerkomgevingen. De betaalbaarheid, flexibiliteit in configuratie en toegang tot VNX2-beheersoftware en integraties van derden zorgen voor een formidabel totaalpakket voor het middensegment.