EMC:s VNX5200-lagringskontroller är ingångspunkten för företagets VNX2-erbjudanden och har blocklagring med valfri fil och enhetlig lagringsfunktion. VNX5200 kan hantera upp till 125x 2.5-tums eller 3.5-tums SAS- och NL-SAS-hårddiskar och SSD:er och är byggd med EMC:s MCx multicore-arkitektur. Kevin O'Brien, chef för StorageReview Enterprise Test Lab, reste nyligen till EMC:s datacenter i Hopkinton, MA för lite praktisk tid och riktmärken för VNX5200.
EMC:s VNX5200-lagringskontroller är ingångspunkten för företagets VNX2-erbjudanden och har blocklagring med valfri fil och enhetlig lagringsfunktion. VNX5200 kan hantera upp till 125x 2.5-tums eller 3.5-tums SAS- och NL-SAS-hårddiskar och SSD:er och är byggd med EMC:s MCx multicore-arkitektur. Kevin O'Brien, chef för StorageReview Enterprise Test Lab, reste nyligen till EMC:s datacenter i Hopkinton, MA för lite praktisk tid och riktmärken för VNX5200.
In september förra året, EMC uppdaterade sin populära VNX-linje av unified storage arrays med betydande hårdvaruförbättringar. Resultatet blev VNX2-serien, med förbättringar som en övergång från PCIe 2.0 till PCIe 3.0 och den nya MCx-arkitekturen (som omfattar multicore RAID, multicore Cache och multicore FAST Cache) för att bättre dra nytta av flera CPU-kärnor i lagringsprocessorerna.
Många av dessa förbättringar fokuserar på att göra det möjligt för VNX-plattformen att bättre använda flash i en tid då lagringsadministratörer fortsätter att gå mot hybridarraykonfigurationer. Enligt EMC levereras nu nästan 70 % av VNX2-systemen i hybridblixtkonfigurationer, ett skifte som också har lagt större vikt vid rollen som EMC:s FAST-svit för cachning och nivåindelning.
Medan den mindre VNXe3200 som vi tidigare granskat har också uppdaterats med VNX2-teknologier, är VNX5200 designad för mellanmarknadskunder som behöver ett primärt lagringssystem på sitt huvudkontor och för fjärr-/filialkontorsbehov som är mer robusta än vad VNXe3200 kan hantera. VNX5200 kan konfigureras för block-, fil- eller enhetlig lagring och använder ett 3U, 25x 2.5-tums EMC Disk Processor Enclosure (DPE)-chassi. VNX5200:s lagringsprocessorenheter har en 1.2 GHz, fyrkärnig Xeon E5-processor med 16 GB RAM och kan hantera maximalt 125 enheter med FC, iSCSI, FCoE och NAS-anslutning.
VNX2-familjen inkluderar för närvarande även fem lagringssystem utformade för större skalor än VNXe3200 och VNX5200.
- VNX5400: Upp till 1 PB råkapacitet över 250 enheter, upp till 1 TB SSD FAST Cache och upp till 8 UltraFlex I/O-moduler per array
- VNX5600: Upp till 2 PB råkapacitet över 500 enheter, upp till 2 TB SSD FAST Cache och upp till 10 UltraFlex I/O-moduler per array
- VNX5800: Upp till 3 PB råkapacitet över 750 enheter, upp till 3 TB SSD FAST Cache och upp till 10 UltraFlex I/O-moduler per array
- VNX7600: Upp till 4 PB råkapacitet över 1,000 enheter, upp till 4.2 TB SSD FAST Cache och upp till 10 UltraFlex I/O-moduler per array
- VNX8000: Upp till 6 PB råkapacitet över 1,500 enheter, upp till 4.2 TB SSD FAST Cache och upp till 22 UltraFlex I/O-moduler per array
VNX5200-blocklagring drivs av dubbla VNX-lagringsprocessorer med en 6 Gb SAS-enhetstopologi. En VNX2-distribution kan använda en eller flera Data Movers och en styrenhet för att erbjuda NAS-tjänster. Liksom andra medlemmar i VNX-serien använder VNX5200 UltraFlex I/O-moduler för både sina Data Movers och blocklagringsprocessorerna. VNX5200 stöder upp till tre Data Movers och maximalt tre UltraFlex-moduler per Data Mover.
MCx Multi-Core-funktionalitet
VNX går före den utbredda flerkärniga processorteknologin, och tidigare generationer av plattformen byggdes inte på en grund som kunde utnyttja dynamisk CPU-skalning. FLARE, operativmiljöerna VNX1 och CLARiiON CX, tillät att tjänster inklusive RAID kördes på en specifik CPU-kärna, men FLAREs enkeltrådiga paradigm innebar att många kärnfunktioner var bundna till den första CPU-kärnan. Till exempel hanterades alla inkommande I/O-processer av Core 0 innan de delegerades till andra kärnor, vilket ledde till flaskhalsscenarier.
MCx implementerar vad EMC karakteriserar som horisontell flerkärnig systemskalning, vilket gör att alla tjänster kan spridas över alla kärnor. Under denna nya arkitektur som är tillgänglig på både VNX2 och VNXe3200 är det mindre sannolikt att inkommande I/O-processer blir flaskhalsade eftersom till exempel front-end Fibre Channel-portar kan fördelas jämnt mellan flera processorkärnor. MCx implementerar också I/O-kärnaffinitet genom sitt koncept med föredragna kärnor. Varje port, front-end och back-end, har både en föredragen kärna och en alternativ kärntilldelning. Systemtjänsterna är värd för förfrågningar med samma front-end-kärna där förfrågningarna härrörde för att undvika att byta cache och sammanhang mellan kärnor.
En stor fördel med den nya MCx-arkitekturen är stöd för symmetriska aktiva/aktiva LUN, vilket gör det möjligt för värdar att få åtkomst till LUN:er samtidigt via båda lagringsprocessorerna i arrayen. Till skillnad från FLAREs asymmetriska implementering tillåter symmetriskt aktivt/aktivt läge båda SP:arna att skriva direkt till LUN utan att behöva skicka uppdateringar till den primära lagringsprocessorn.
För närvarande stöder VNX2-system symmetrisk aktiv/aktiv åtkomst för klassiska RAID-grupp-LUN, men stöder inte aktiva/aktiva för privata pool-LUN:er som istället kan använda asymmetriskt aktivt/aktivt läge. Privata pool-LUN:er eller "Classic LUNs" kan för närvarande inte använda symmetriskt aktivt/aktivt läge om de använder andra datatjänster än VNX RecoverPoint-delaren.
En av VNX5200:s övertygande synergier mellan MCx-arkitekturen och flashmedialagring är systemets stöd för EMC FAST Suite, som gör det möjligt för administratörer att dra fördel av flashlagringsmedia för att öka arrayprestandan över heterogena enheter. FAST Suite kombinerar två tillvägagångssätt för att använda flash för att påskynda lagringsprestanda – cachning och nivåindelning – till en integrerad lösning. VNX2-uppdateringar till FAST Suite inkluderar fyra gånger bättre nivågranularitet och stöd för nya eMLC-flashenheter.
VNX FAST Cache tillåter att upp till 4.2 TB SSD-lagring kan användas för att leverera högaktiv data och dynamiskt anpassa sig till arbetsbelastningsspikar, även om den övre cachestorleksgränsen för VNX5200 är 600 GB. När data åldras och blir mindre aktiva med tiden, delar FAST VP upp data från högpresterande till högkapacitetsenheter i steg om 256 MB baserat på administratörsdefinierade policyer.
EMC VNX5200 Specifikationer
- Array-hölje: 3U-diskprocessorhölje
- Drivenskap:
- 2.5-tums SAS/Flash (2U), 25 enheter
- 3.5-tums SAS/Flash (3U), 15 enheter
- Max SAN-värdar: 1,024 XNUMX
- Min/Max Drives: 4/125
- Max FAST Cache: 600GB
- CPU/minne per Array: 2x Intel Xeon E5-2600 4-Core 1.2GHz/32GB
- RAID: 0/1/10/3/5/6
- Max råkapacitet: 500TB
- Protokoll: FC, FCoE, NFS, CIFS, iSCSI,
- Lagringstyper: Unified, SAN, NAS, Object
- Disktyper: Flash SSD, SAS, NL-SAS
- Kapacitetsoptimering: Thin Provisioning, Block Deduplication, Block Compression, File Level Deduplication och Compression
- Prestanda: MCx, FAST VP, FAST Cache
- Förvaltning: EMC Unisphere
- Virtualiseringsstöd: VMware vSphere, VMware Horizon View, Microsoft Hyper-V, Citrix XenDesktop
- Max Block UltraFlex I/O-moduler per array: 6
- Max antal portar per array: 28
- 2/4/8 Gb/s FC Max portar per array: 24
- 1GBASE-T iSCSI Max totalt antal portar per array: 16
- Max FCoE-portar per array: 12
- 10 GbE iSCSI Max totala portar per array: 12
- Kontrollstationer: 1 eller 2
- Max stödda LUN: 1,000 XNUMX (poolad)
- Max LUN-storlek: 256TB (Virtual Pool LUN)
- Max filsystemstorlek: 16TB
- Antal fildataflyttare: 1, 2 eller 3
- CPU/minne per Data Mover: Intel Xeon 5600/6GB
- UltraFlex I/O-expansionsmoduler för block:
- 4-portars 2/4/8Gb/s fiberkanal
- 4-portar 1 Gb/s (koppar) iSCSI
- 2-portar 10 Gb/s (optisk) iSCSI
- 2-portar 10GBASE-T (koppar) iSCSI
- 2-portar 10GbE (optisk eller twinax) FCoE
- UltraFlex I/O-expansionsmoduler för fil:
- 4-portar 1GBASE-T
- 4-portar 1GBASE-T och 1GbE (optisk)
- 2-portar 10 GbE (optisk)
- 2-portar 10GBASE-T (koppar)
Design och bygga
I VNX-terminologi består en lagringsinstallation av flera integrerade rackkomponenter. Styrkomponenten är antingen en SPE (Storage-Processor Enclosure) som inte innehåller enhetsfack, eller som med denna VNX5200, en Disk-Processor Enclosure (DPE) som tillhandahåller intern lagring. VNX Disk Array Enclosures (DAE) kan användas för att införliva ytterligare lagringskapacitet.
En SPE innehåller VNX-lagringsprocessorer förutom dubbla SAS-moduler, dubbla strömförsörjningar och fläktpaket. Disk-Processor Enclosures (DPE) inkluderar ett hölje, diskmoduler, lagringsprocessorer, dubbla strömförsörjningar och fyra fläktpaket. Att lägga till ytterligare lagring genom användning av DAE kan göras genom att använda antingen 15x 3.5-tums, 25x 2.5-tums eller 60x 3.5-tums enhetsfack med dubbla SAS-länkkontrollkort och dubbla strömförsörjningar.
Oavsett om de är en del av ett lagringsprocessorhölje eller ett diskprocessorhölje ger VNX-lagringsprocessorer dataåtkomst till externa värdar och överbryggar arrayens blocklagring med valfri VNX2-fillagringsfunktionalitet. VNX5200 kan dra fördel av en mängd olika EMC:s UltraFlex IO-moduler för att anpassa sin anslutning.
UltraFlex Block IO-modulalternativ:
- Fyrports 8Gb/s Fibre Channel-modul med optisk SFP och OM2/OM3-kablar för att ansluta till en HBA- eller FC-switch.
- Fyrports 1Gb/s iSCSI-modul med en TCP-avlastningsmotor och fyra 1GBaseT Cat6-portar.
- Tvåports 10Gb/s Opt iSCSI-modul med en TCP-avlastningsmotor, två 10Gb/s Ethernet-portar och en SFP+ optisk anslutning eller en twinax kopparanslutning till en Ethernet-switch.
- Tvåports 10GBaseT iSCSI-modul med en TCP-avlastningsmotor och två 10GBaseT Ethernet-portar
- Tvåports 10GbE FCoE-modul med två 10Gb/s Ethernet-portar och en SFP+ optisk anslutning eller en twinax kopparanslutning
- Fyrportars 6Gb/s SAS V2.0-modul för backend-anslutning till VNX Block Storage-processorer. Varje SAS-port har fyra banor per port vid 6 Gb/s för 24 Gb/s nominell genomströmning. Denna modul är designad för PCIe 3-anslutning och kan konfigureras som 4x4x6 eller 2x8x6.
För att konfigurera VNX5200 för fillagring eller enhetlig lagring måste den användas tillsammans med en eller flera Data Mover-enheter. VNX Data Mover Enclosure (DME) är 2U i storlek och rymmer Data Movers. Data Movers använder 2.13 GHz, fyrkärniga Xeon 5600-processorer med 6 GB RAM per Data Mover och kan hantera en maximal lagringskapacitet på 256 TB per Data Mover. Dataflyttarhöljet kan arbeta med en, två eller tre dataflyttare.
Kontrollstationer är 1U stora och tillhandahåller hanteringsfunktioner till Data Movers, inklusive kontroller för failover. En kontrollstation kan användas med en sekundär kontrollstation för redundans. Alternativen för UltraFlex File IO Module inkluderar:
- Fyrports 1GBase-T IP-modul med fyra RJ-45-portar för Cat6-kablar
- Tvåports 10GbE Opt IP-modul med två 10Gb/s Ethernet-portar och ett val av en SFP+ optisk anslutning eller en twinax kopparanslutning till en Ethernet-switch
- Tvåports 10 GBase-T IP-modul med kopparanslutningar till en Ethernet-switch
- Fyra-portars 8 Gb/s fiberkanalsmodul med optisk SFP och OM2/OM3-kablar för att ansluta direkt till en captive array och för att tillhandahålla en NDMP-bandanslutning
Management och datatjänster
VNX-familjen använder EMC:s Unisphere-hanteringsprogramvara. Vårt övergripande intryck av Unisphere är att det erbjuder ett rent och välorganiserat gränssnitt som kommer att vara tillgängligt för IT-generalister samtidigt som det ger erfarna lagringsadministratörer tillgång till hela systemets funktionalitet.
Unisphere innehåller ögonblicksbildsfunktioner som inkluderar konfigurationsalternativ för en policy för automatisk radering som tar bort ögonblicksbilder antingen (1) efter en viss tid eller (2) när lagringsutrymmet för ögonblicksbilder överstiger en angiven procentandel av lagringskapaciteten. VNX ögonblicksbilder kan använda sig av EMC:s tunna provisionering och omdirigering på skrivteknik för att förbättra hastigheten och minska lagringskraven för lagrade ögonblicksbilder.
VNX använder block- och filkomprimeringsalgoritmer utformade för relativt inaktiva LUN:er och filer, vilket gör att både dess komprimering och deduplicering kan utföras i bakgrunden med reducerad prestandaoverhead. VNX:s deduplicering med fast block är byggd med 8KB granularitet för scenarier som virtuell maskin, virtuellt skrivbord och test-/utvecklingsmiljöer med mycket att vinna på deduplicering. Deduplicering kan ställas in på pool-LUN-nivå, och tunna, tjocka och deduplicerade LUN:er kan lagras i en enda pool.
Unisphere Central tillhandahåller centraliserad multibox-övervakning för upp till tusentals VNX- och VNXe-system, till exempel system som distribueras på fjärr- och filialkontor. Unisphere-sviten inkluderar även VNX Monitoring and Reporting programvara för lagringsutnyttjande och arbetsbelastningsmönster för att underlätta problemdiagnos, trendanalys och kapacitetsplanering.
I virtualiserade miljöer kan VNX5200 distribuera EMC:s Virtual Storage Integrator för VMware vSphere 5 för provisionering, hantering, kloning och deduplicering. För VMware erbjuder VNX5200 API-integrationer för VAAI och VASA, och i Hyper-V-miljöer kan den konfigureras för Offloaded Data Transfer och Offload Copy for File. EMC Storage Integrator erbjuder provisioneringsfunktioner för Hyper-V och SharePoint. Programvaran EMC Site Recovery Manager kan hantera failover och failback även i katastrofåterställningssituationer.
VNX2-arrayer från VNX5200 till VNX8000 erbjuder EMC:s nya styrenhetsbaserade data at rest-kryptering, kallad D@RE, som krypterar all användardata på frekvensomriktarnivå. D@RE använder AES 256-kryptering och väntar på validering för FIPS-140-2 nivå 1-överensstämmelse. Nya D@RE-kompatibla VNX-arrayer levereras med krypteringshårdvaran inkluderad, och befintliga VNX2-system kan uppgraderas på fältet för att stödja D@RE och kryptera befintlig lagring på ett icke-störande sätt som en bakgrundsuppgift.
D@RE krypterar all data som skrivs till arrayen med ett vanligt datavägsprotokoll med en unik nyckel per disk. Om enheter tas bort från arrayen av någon anledning är informationen på enheten oförståelig. D@RE innehåller också krypto-raderingsfunktionalitet eftersom dess krypteringsnycklar raderas när en RAID-grupp eller lagringspool raderas.
VNX2 erbjuder speglad skrivcachefunktion, där varje lagringsprocessor innehåller både primär cachad data för sina LUN:er och en sekundär kopia av cachen för peer-lagringsprocessorn. RAID-nivåerna 0, 1, 1/0, 5 och 6 kan samexistera i samma array och systemets proaktiva hot sparing-funktion ökar dataskyddet ytterligare. Systemet använder integrerade batteribackupenheter för att tillhandahålla cache-avstängning och andra överväganden för en ordnad avstängning vid strömavbrott.
Lokalt skydd är tillgängligt genom Unispheres punkt-i-tid ögonblicksbild-funktion, och kontinuerligt dataskydd är tillgängligt via RecoverPoint lokal replikering. EMC:s VPLEX kan användas för att utöka den kontinuerliga tillgängligheten inom och mellan datacenter. Enligt EMC använde den TV-DVR som inspiration för sin RecoverPoint Continuous Remote Replication-mjukvara.
Replication Manager och AppSync ger applikationskonsekvent skydd med EMC Backup and Recovery-lösningar inklusive Data Domain, Avamar och Networker för att förkorta säkerhetskopieringsfönster och återställningstid.
Testa bakgrund och lagringsmedia
Vi publicerar en inventering av vår labbmiljö, En översikt över labbets nätverksmöjligheter, och andra detaljer om våra testprotokoll så att administratörer och de som är ansvariga för utrustningsanskaffning rättvist kan bedöma de förhållanden under vilka vi har uppnått de publicerade resultaten. För att upprätthålla vårt oberoende betalas eller hanteras ingen av våra recensioner av tillverkaren av utrustning vi testar.
EMC VNX5200 recensionen sticker ut som ett ganska unikt testsätt jämfört med hur vi brukar utvärdera utrustning. I vår standardgranskningsprocess skickar leverantören oss plattformen, som vi sedan kopplar till våra fasta testplattformar för prestandabenchmarks. Med VNX5200 fick storleken och komplexiteten, såväl som den initiala installationen, oss att ändra detta tillvägagångssätt och flyga vår granskare och utrustning till EMC:s labb. EMC förberedde en VNX5200 med den utrustning och tillval som krävs för iSCSI- och FC-testning. EMC levererade sin egen dedikerade 8Gb FC-switch, medan vi tog med en av våra Mellanox 10/40Gb SX1024-switchar för Ethernet-anslutning. För att betona systemet använde vi en EchoStreams OSS1A-1U-server, som överträffade hårdvaruspecifikationerna för det vi använder i vår traditionella labbmiljö.
EchoStreams OSS1A-1U Specifikationer:
- 2x Intel Xeon E5-2697 v2 (2.7 GHz, 30 MB cache, 12-kärnor)
- Intel C602A Chipset
- Minne – 16GB (2x 8GB) 1333MHz DDR3-registrerade RDIMM
- Windows Server Standard 2012 R2
- Boot SSD: 100GB Micron RealSSD P400e
- 2x Mellanox ConnectX-3 dual-port 10GbE NIC
- 2x Emulex LightPulse LPe16002 Gen 5 Fiber Channel (8GFC, 16GFC) PCIe 3.0 Dual-Port HBA
Vår utvärdering av VNX5200 kommer att jämföra dess prestanda i syntetiska benchmarks över fem konfigurationer som återspeglar hur EMC-kunder distribuerar VNX2-system i en produktionsmiljö. Varje konfiguration utnyttjade 8 LUN:er med en storlek på 25 GB.
- En RAID10-array som består av SSD-media med Fibre Channel-anslutning
- En RAID10-array som består av SSD-media med iSCSI-anslutning
- En RAID6-array som består av 7k HDD-media med Fibre Channel-anslutning
- En RAID5-array som består av 10k HDD-media med Fibre Channel-anslutning
- En RAID5-array som består av 15k HDD-media med Fibre Channel-anslutning.
Varje konfiguration inkorporerade 24 enheter och använde RAID-konfigurationer som är vanligast med deras distribution i en produktionsmiljö.
Syntetisk arbetsbelastningsanalys för företag
Innan du påbörjar var och en av fio syntetiska riktmärken, vårt labb förbereder enheten till ett stabilt tillstånd under en tung belastning på 16 trådar med en enastående kö på 16 per tråd. Därefter testas lagringen i fastställda intervall med flera gäng-/ködjupsprofiler för att visa prestanda under lätt och tung användning.
Förkonditionering och primära stationära tester:
- Genomströmning (läs+skriv IOPS aggregerad)
- Genomsnittlig fördröjning (läs+skrivfördröjning i medeltal)
- Max fördröjning (maximal läs- eller skrivfördröjning)
- Latens standardavvikelse (läs+skriv standardavvikelse i genomsnitt)
Denna syntetiska analys innehåller fyra profiler som används i stor utsträckning i tillverkarens specifikationer och riktmärken:
- 4k slumpmässigt – 100% Läs och 100% Skriv
- 8k sekventiell – 100% Läs och 100% Skriv
- 8k slumpmässigt – 70% Läs/30% Skriv
- 128k sekventiell – 100% Läs och 100% Skriv
Efter att ha förbehandlats för 4k-arbetsbelastningar satte vi VNX5200 genom våra primära tester. Som sådan, när den konfigurerades med SSD och nås via Fibre Channel, publicerade den 80,472 33,527 IOPS-läsningar och 10 5200 IOPS-skrivningar. Med samma SSD-enheter i RAID37,421 (men den här gången med vårt iSCSI-blocknivåtest) uppnådde VNX22,309 15 5 IOPS-läsning och 12,054 3,148 IOPS-skrivning. Byte till 10K hårddiskar i RAID7,688 med Fibre Channel-anslutning visade 2,835 7 IOPS-läsningar och 6 5200 IOPS-skrivningar, medan 4,390K HDD-konfigurationen träffade 1,068 XNUMX IOPS-läsningar och XNUMX XNUMX IOPS-skrivningar. När du använder XNUMXK hårddiskar i en RAIDXNUMX-konfiguration av samma anslutningstyp, publicerade VNXXNUMX XNUMX XNUMX IOPS-läsningar och XNUMX XNUMX IOPS-skrivningar.
Resultaten var ungefär desamma i genomsnittlig latens. När den var konfigurerad med SSD-enheter i RAID10 och använde en Fibre Channel-anslutning visade den 3.18 ms läsning och 7.63 ms skrivning. Genom att använda samma SSD-enheter med vårt iSCSI-test på blocknivå, stoltserade VNX5200 med 6.84 ms läsning och 11.47 me skrivning. Att byta till 15K hårddiskar i RAID5 med Fibre Channel-anslutning visade 21.23 ms läsning och 81.31 ms skrivtid i genomsnittlig latens, medan 10K hårddiskkonfigurationen gav 33.29 ms läsning och 90.31 ms skrivning. När VNX7 bytte till 6K hårddiskar i en RAID5200-konfiguration av samma anslutningstyp, publicerade VNX58.29 239.64 ms läsning och XNUMX ms skrivning.
Därefter går vi till vårt benchmark för maximal latens. När den konfigurerades med SSD i RAID10 och använde vårt iSCSI-blocknivåtest visade det 197 ms läsning och 421.8 ms skrivning. Med samma SSD-enheter, men den här gången med Fibre Channel-anslutning, skröt VNX5200 med 202.1 ms läsning och 429.2 ms skrivning. Byte till 15K hårddiskar i RAID5 med Fibre Channel-anslutning registrerade 1,311.3 1,199.2 ms läsning och 10 2,687.8 ms skrivning för maximal latens, medan 2,228.1K HDD-konfigurationen publicerade 7 6 ms läsning och 5200 3,444.8 ms skrivning. Vid byte till 2,588.4K-hårddiskar i en RAIDXNUMX-konfiguration av samma anslutningstyp publicerade VNXXNUMX XNUMX XNUMX ms läsning och XNUMX XNUMX ms skrivning.
Vårt senaste 4K-riktmärke är standardavvikelse, som mäter konsistensen av VNX5200:s prestanda. När den är konfigurerad med SSD:er i RAID10 med vårt iSCSI-test på blocknivå, VNX5200 postade 3.30 ms läs och 12.06 ms skriv. Att använda samma SSD-enheter med Fibre Channel-anslutning visar 9.20 ms läsning och 14.32 ms skriv. Byte till 15K hårddiskar i RAID5 med Fibre Channel-anslutning registrerade 25.93 ms läsning och 120.53 ms skrivning, medan 10K HDD-konfigurationen visade 35.37 ms läsning och 175.66 ms skrivning. När du använder 7K-hårddiskar RAID6-konfiguration av samma anslutningstyp, publicerade VNX5200 52.75 ms läsning och 254.55 ms skrivning.
Vårt nästa riktmärke använder en sekventiell arbetsbelastning som består av 100 % läsoperationer och sedan 100 % skrivoperationer med en överföringsstorlek på 8k. Här publicerade VNX5200 178,959 76,022 IOPS-läsning och 10 5 IOPS-skrivning när den konfigurerades med 15K hårddiskar i RAID5 Fibre Channel-anslutning. Att använda 176,895 77,505 hårddiskar i RAID10 med Fibre Channel-anslutning visar 169,833 74,470 IOPS-läsning och 69,303 40,379 IOPS-skrivning. Byte till SSD:er i RAID7 med en Fibre Channel-anslutning registrerade 6 5200 IOPS-läsningar och 75,982 76,122 IOPS-skrivningar, medan SSD iSCSI-blocknivåtestet visade XNUMX XNUMX IOPS-läsningar och XNUMX XNUMX IOPS-skrivningar. När du använder XNUMXK-hårddiskar i en RAIDXNUMX-konfiguration med Fibre Channel-anslutning, publicerade VNXXNUMX XNUMX XNUMX IOPS-läsningar och XNUMX XNUMX IOPS-skrivningar.
Vår nästa serie arbetsbelastningar består av en blandning av 8k läs- (70%) och skrivoperationer (30%) upp till en 16 trådar 16-kö, vår första är genomströmning. När VNX10 konfigurerades med SSD-enheter i RAID5200 med hjälp av Fibre Channel-anslutning, publicerade VNXXNUMX en rad 8,673 IOPS till 41,866 16 IOPS med 16T/XNUMXQ. Att använda samma SSD-enheter under vårt iSCSI-test på blocknivå visar ett antal 6,631 28,193 IOPS till XNUMX XNUMX IOPS. Att byta till 15K hårddiskar i RAID5 med Fibre Channel-anslutning spelade in ett intervall på 1,204 XNUMX IOPS och 6,411 XNUMX IOPS, medan 10K HDD-konfigurationen publicerade 826 IOPS och 5,113 16 IOPS med 16T/7Q. När du använder 6K hårddiskar RAID5200-konfiguration av samma anslutningstyp, postade VNX267 ett intervall på 2,467 IOPS till XNUMX XNUMX IOPS.
Därefter tittade vi på genomsnittlig latens. När VNX10 har konfigurerats med SSD-enheter i RAID5200 med Fibre Channel-anslutning, postade VNX0.45 ett intervall på 6.11 ms till 16 ms med 16T/0.59Q. Att använda samma SSD-enheter under vårt iSCSI-blocknivåtest visar ett intervall på 9.07 ms till 15 ms. Att byta till 5K HDDs i RAID3.31 med Fibre Channel-anslutning spelade in ett intervall på 39.89ms och 10ms, medan 4.83K HDD-konfigurationen publicerade 49.97ms initialt och 16ms av 16T/7Q. När du använder 6K-hårddiskar RAID5200-konfiguration av samma anslutningstyp, postade VNX14.93 ett intervall på 103.52 ms till XNUMX ms.
När vi tar en titt på dess maximala latensresultat, när den konfigurerades med SSD: er i RAID10 med fiberkanalanslutning, hade VNX5200 ett intervall på 27.85 ms till 174.43 ms med 16T/16Q. Att använda samma SSD-enheter under vårt iSCSI-blocknivåtest visar ett intervall på 31.78 ms till 134.48 ms i maximal latens. Att byta till 15K hårddiskar i RAID5 med Fibre Channel-anslutning spelade in ett intervall på 108.48ms och 2,303.72ms, medan 10K HDD-konfigurationen visade 58.83ms och 2,355.53ms med 16T/16Q. När du använder 7K-hårddiskar RAID6-konfiguration av samma anslutningstyp, publicerade VNX5200 ett maximalt latensintervall på 82.74 ms till 1,338.61 XNUMX ms.
Vår nästa arbetsbelastning analyserar standardavvikelsen för våra 8k 70% läs- och 30% skrivoperationer. Genom att använda SSD:er i RAID10 med Fibre Channel-anslutning, postade VNX5200 ett intervall på bara 0.18ms till 10.83ms av 16T/16Q. Att använda samma SSD-enheter under vårt iSCSI-blocknivåtest visar ett liknande intervall på 0.21ms till 11.54ms i latenskonsistens. Att byta till 15K HDDs i RAID5 med Fibre Channel-anslutning spelade in ett intervall på 3.48ms till 56.58ms, medan 10K HDD-konfigurationen visade 2.5ms initialt och 66.44ms av 16T/16Q. När du använder 7K-hårddiskar RAID6-konfiguration av samma anslutningstyp, publicerade VNX5200 ett standardavvikelseintervall på 7.98 ms till 110.68 ms.
Vårt sista syntetiska riktmärke använde sekventiella 128k överföringar och en arbetsbelastning på 100 % läs- och 100 % skrivoperationer. I det här scenariot publicerade VNX5200 2.84 GB/s läsning och 1.26 GB/s skriv när den konfigurerades med SSD:er med vårt iSCSI-test på blocknivå. Att använda 15K hårddiskar i RAID5 med Fibre Channel-anslutning visar 2.48 GB/s läsning och 2.33 GB/s skriv. Genom att byta tillbaka till SSD-enheter i RAID10 (den här gången med en Fibre Channel-anslutning) spelade den in 2.48 GB/s läsning och 3.06 GB/s skrivning. När du använder 7K-hårddiskar i en RAID6-konfiguration med Fibre Channel-anslutning, publicerade VNX5200 2.47 GB/s läsning och 2.68 GB/s skrivning medan 10K HDD-konfigurationen publicerade 2.47 GB/s läsning och 3.22 GB/s skrivning.
Slutsats
EMC:s VNX-ekosystem är väletablerat på företagslagringsmarknaden, men VNX2 återspeglar företagets vilja att helt se över VNX-arkitekturen för att få ut det mesta av framstegen inom processor-, flash- och nätverksteknik. Ungefär som VNXe3200, som är orienterad mot mindre distributioner, visar VNX5200 också att EMC uppmärksammar mellanmarknadsföretag och fjärr-/filialkontor som kanske inte kan motivera utgifterna för de större systemen i VNX-familjen men ändå vill ha alla företagsfördelar .
Används i kombination med FAST Suite, kan VNX5200 erbjuda flash-cache och stegring i tandem, en kombination som EMC:s kamrater har svårt att konkurrera med. I våra tester bröt vi ut de vanliga nivåerna och konfigurationerna av lagring för att illustrera med en begränsad testsvit precis vad användarna kan förvänta sig av 5200. Tester omfattade 7K HDD på upp till SSD:er, vilket illustrerar flexibiliteten som systemet har, levererar kapacitet, prestanda, eller båda över en mängd olika gränssnittsalternativ.
I slutändan kan VNX2-plattformen hantera nästan vad som helst som kastas sin väg; och det är den flexibiliteten som vinner EMC-affärer på daglig basis. Med tanke på blandningen av lagringsalternativ, IO-moduler och NAS-stöd kan systemen hantera nästan allt en organisation kan behöva. Naturligtvis finns det användningsfall som går utöver de 5200 vi testade här. VNX-familjen skalar upp en hel del (och ner en del också med VNXe3200) för att möta dessa behov, oavsett om det är med mer datorkraft, flashtilldelning eller diskhyllor.
Fördelar
- En mängd olika anslutningsalternativ via UltraFlex I/O-moduler
- Konfigurationer som stöder block-, fil- och unified storage-scenarier
- Tillgång till det robusta VNX-ekosystemet med administrativa verktyg och tredjepartsintegrationer
Nackdelar
- Maximalt 600 GB FAST Cache
Bottom Line
EMC VNX5200 är en nyckelpost i deras nya våg av enhetliga lagringsarrayer som är utformade för att dra fördel av flashlagring, flerkärniga processorer och moderna datacenternätverksmiljöer. Dess prisvärdhet, flexibilitet i konfigurationen och tillgången till VNX2-hanteringsprogramvara och tredjepartsintegrationer ger ett formidabelt helhetspaket för mellanmarknaden.