Förra året publicerade vi en detaljerad serie recensioner om VSAN 6.0 i en hybridkonfiguration. I februari i år, VMware lanserade VSAN 6.2, som förde dataminskning via deduplicering och komprimering, samt ett antal andra funktioner till marknaden. Datareducering är ett stort steg framåt för VSAN eftersom det piggybacks på den massiva ökningen av flashanvändning, till stor del tack vare fallande priser och högkvalitativa alternativ. När VSAN är aktiverat i en all-flash-konfiguration kan användare som drar fördel av datareduktion effektivt tredubbla (eller mer) sin kapacitet beroende på arbetsbelastning, vilket verkligen ger värdet av flash till alla från ROBO till företaget.
Förra året publicerade vi en detaljerad serie recensioner om VSAN 6.0 i en hybridkonfiguration. I februari i år, VMware lanserade VSAN 6.2, som förde dataminskning via deduplicering och komprimering, samt ett antal andra funktioner till marknaden. Datareducering är ett stort steg framåt för VSAN eftersom det piggybacks på den massiva ökningen av flashanvändning, till stor del tack vare fallande priser och högkvalitativa alternativ. När VSAN är aktiverat i en all-flash-konfiguration kan användare som drar fördel av datareduktion effektivt tredubbla (eller mer) sin kapacitet beroende på arbetsbelastning, vilket verkligen ger värdet av flash till alla från ROBO till företaget.
När vi fortsätter med vår granskning av VSAN har vi utnyttjat samma Dell PowerEdge R730xd-kluster som vi använde i den tidigare Hybrid-recensionen. Vi har gjort uppdateringar av plattformen, inklusive BIOS, firmware och ESXi för att göra den kompatibel med VSAN 6.2. En av de största förändringarna är dock att ersätta våra befintliga hårddiskar och SSD:er med en ny all-flash-konfiguration, med tillstånd av Toshiba. Genom att utnyttja några av de snabbaste SAS3 SSD:erna på marknaden kan vi lägga all vår uppmärksamhet på själva VSAN, utan att hårdvaran håller tillbaka den.
Dell PowerEdge R730xd VMware All-Flash VSAN-specifikationer
- Dell PowerEdge R730xd-servrar (x4)
- CPU:er: Åtta Intel Xeon E5-2697 v3 2.6 GHz (14C/28T)
- Minne: 64 x 16 GB DDR4 RDIMM
- SSD:
- Cache: 16 x 400 GB Toshiba PX04 Skrivintensiv SAS3
- Kapacitet: 80 x 960 GB Toshiba PX04 Läsintensiv SAS3
- Nätverk: 4 x Intel X520 DP 10Gb DA/SFP+, + I350 DP 1Gb Ethernet
- Lagringskapacitet: 69.86 TB
Toshiba-enheterna som användes för denna recension var Toshiba PX04S-modeller. I vår tidigare recension fann vi att PX04S-modellerna var de snabbaste SAS-företags-SSD:erna vi har testat hittills. PX04S var också den högsta kapaciteten dual port SAS SSD när den granskades. PX04S-serien kommer i flera uthållighetsnivåer, allt från hög uthållighet till låg uthållighet med medel- och värdeuthållighetsmodeller också. För den här recensionen fyllde vi Dell PowerEdge R730xd med sexton 400 GB skrivintensiva (PX04SHB040) och åttio 960 GB värde-uthållighet (PX04SVB096) enheter. De skrivintensiva enheterna kan skryta med upp till 25DWPD och de värde-uthålliga enheterna upp till 3DWPD. Som jämförelse, i hybridkonfigurationen med samma servrar, bestod cachenivån av fyra Toshiba PX02 800GB SSD:er per värd, vilket gav dubbel cachenivåkapacitet.
PX04SHB040 400 GB skrivintensiva enhetsspecifikationer:
- Prestation
- Uthållig 64KiB sekventiell läsning: 1,900 XNUMX MiB/s
- Uthållig 64KiB sekventiell skrivning: 850MiB/s
- Hållbar 4KiB slumpmässig läsning: 270K IOPS
- Sustained 4KiB Random Write: 125K IOPS
- DWPD: 25
PX04SVB096 960 GB värde-uthållighet enhet specifikationer:
- Prestation
- Uthållig 64KiB sekventiell läsning: 1,900 XNUMX MiB/s
- Uthållig 64KiB sekventiell skrivning: 850MiB/s
- Hållbar 4KiB slumpmässig läsning: 270K IOPS
- Sustained 4KiB Random Write: 60K IOPS
- DWPD: 3
Analys av applikationens arbetsbelastning
För den här recensionen fyllde vi på Dell PowerEdge R730xd VMware VSAN med alla Toshiba PX04 SAS3 SSD:er. De första riktmärkena består av MySQL OLTP-prestanda via SysBench och Microsoft SQL Server OLTP-prestanda med en simulerad TPC-C-arbetsbelastning.
Varje SQL Server VM är konfigurerad med två vDisks, en 100 GB för uppstart och en 500 GB för databasen och loggfilerna. Ur ett systemresursperspektiv konfigurerade vi varje virtuell dator med 16 vCPU:er, 64 GB DRAM och utnyttjade LSI Logic SAS SCSI-kontrollern. Dessa tester är utformade för att övervaka hur en latenskänslig applikation presterar på klustret med en måttlig, men inte överväldigande, beräknings- och lagringsbelastning.
SQL Server-testkonfiguration (per virtuell dator)
- Windows Server 2012 R2
- Lagringsutrymme: 600 GB tilldelat, 500 GB använt
- SQL Server 2014
- Databasstorlek: 1,500 XNUMX skala
- Virtuell klientbelastning: 15,000 XNUMX
- RAM-buffert: 48GB
- Testlängd: 3 timmar
- 2.5 timmars förkonditionering
- 30 minuters provperiod
I SQL Server TPC-C-testet på hyperkonvergerade plattformar tittar vi på arbetsbelastningsbalansen över klustret i hybridläge, all-flash-läge (AF) och all-flash-datareduktion (AF DR). AF-versionen gav något starkare prestanda jämfört med hybriden med individuella virtuella datorer som körde från 3,112.4 3,130.4 TPS till 12,472.8 2,982.1 TPS, med en sammanlagd poäng på 3,009.6 11,969.1 TPS, den högsta poängen totalt. DR-konfigurationen var i den nedre delen av testkonfigurationerna, med individuella virtuella datorer som kördes från XNUMX XNUMX TPS till XNUMX XNUMX TPS, med ett sammanlagt resultat på XNUMX XNUMX TPS.
För SQL Server TPC-C-testet är den variabel vi ägnar mest uppmärksamhet åt genomsnittlig latens. Små luckor i transaktionsresultat visar inte hela historien. I vårt genomsnittliga latenstest såg vi att AF-versionens högsta poäng, 64ms, var densamma som hybridens sämsta poäng. AF hade också en genomsnittlig poäng på 53ms. Än en gång DR-konfigurationen placerad längst ner i paketet, med ett lågt värde på 236 ms, ett högt värde på 278 ms och ett genomsnitt på 261 ms.
Sysbench Performance
Varje Sysbench VM är konfigurerad med tre vDisks: en för uppstart (~92GB), en med den förbyggda databasen (~447GB) och den tredje för databasen som testas (400GB). Ur ett systemresursperspektiv konfigurerade vi varje virtuell dator med 16 vCPU:er, 64 GB DRAM och utnyttjade LSI Logic SAS SCSI-kontrollern.
Sysbench-testkonfiguration (per virtuell dator)
- CentOS 6.3 64-bitars
- Lagringsutrymme: 1 TB, 800 GB använt
- Percona XtraDB 5.5.30-rel30.1
- Databastabeller: 100
- Databasstorlek: 10,000,000 XNUMX XNUMX
- Databastrådar: 32
- RAM-buffert: 24GB
- Testlängd: 12 timmar
- 6 timmar förkonditionering 32 trådar
- 1 timme 32 trådar
- 1 timme 16 trådar
- 1 timme 8 trådar
- 1 timme 4 trådar
- 1 timme 2 trådar
Med Sysbench OLTP tittar vi på 8VM-konfigurationen för var och en. AF kom ut överst, något, tryckande förbi hybriden med 4,273 4,259 TPS till 3,625 XNUMX TPS. DR-konfigurationen fick XNUMX XNUMX TPS.
Om man tittar på genomsnittlig latens är det lite av en överraskning att se att AF inte var avsevärt högre än hybriden, 60.1 ms respektive 60.3 ms. DR fick mycket högre poäng med 71ms latens.
Genomsnittlig 99:e percentillatens visade återigen en liten minskning i latens för AF jämfört med hybriden, 126ms till 131ms respektive. DR hade mycket högre latens på 212ms.
VMmarks prestandaanalys
Som med all vår Application Performance Analysis försöker vi visa hur produkter presterar i en liveproduktionsmiljö jämfört med företagets anspråk på prestanda. Vi förstår vikten av att utvärdera lagring som en komponent i större system, framför allt hur responsiv lagring är när man interagerar med viktiga företagsapplikationer. I detta test använder vi VMmark virtualisering benchmark av VMware i en miljö med flera servrar.
VMmark är genom sin design ett mycket resurskrävande riktmärke, med en bred blandning av VM-baserade applikationsarbetsbelastningar som betonar lagring, nätverk och datoraktivitet. När det kommer till att testa virtualiseringsprestanda finns det nästan inget bättre riktmärke för det, eftersom VMmark tittar på så många aspekter som täcker lagrings-I/O, CPU och till och med nätverksprestanda i VMware-miljöer.
Här tittar vi på utbrottet av VMmarks övergripande och applikationsprestanda i både våra hybrid- och All-Flash-konfigurationer med VSAN-konfigurationer.
VSAN kan ha 18 brickor med komprimering och deduplicering aktiverad, och VSAN är det högst presterande lagringssystemet med datareduktion som vi har testat hittills. I tidigare benchmarks toppade vi 8 brickor med en dedikerad dedup-apparat framför en all-blixt-array.
När man tittar på CPU-resurser på en av värdarna under denna 18-platta All-Flash VSAN-körning, flöt systemet runt 80-85% CPU-användning. Så även om lagringsaspekten inte kunde driva högre, hade klustret fortfarande en del resurser över.
HCIbench testkonfiguration
- 16 virtuella datorer
- 10 VMDK per virtuell dator
- 10 GB VMDK (1.6 TB footprint)
- 50 GB VMDK (8 TB footprint)
- 100 GB VMDK (16 TB footprint)
- Full-write lagringsinitiering
- 1.5 timmars testintervall (30 minuters förkonditionering, 60 minuters testprovperiod)
För att testa hybrid- och AF DR-konfigurationerna av vår VMware VSAN distribuerade vi två olika konfigurationer för våra arbetsbelastningsprofiler. Dessa inkluderade ett 1.6 TB (helt i cache för hybriden), 800 GB (helt i cache för AF DR) och 16 TB (spill utanför cachen) för att visa hur plattformen reagerar när het data växer. Dessa storlekar kan justeras för varje plattform beroende på hur mycket blixt som tillhandahålls för cache eller nivå.
StorageReviews HCIbench arbetsbelastningsprofiler
- 4K Slumpmässig 100 % läs
- 4K Slumpmässig 100% skrivning
- 8K Slumpmässig 70% läs / 30% skriv
- 32K sekventiell 100 % läs
- 32K sekventiell 100% skrivning
Det första HCIbench-testet tittar på maximal slumpmässig genomströmning från VMware VSAN-plattformen med en helt slumpmässig 4K-arbetsbelastningsprofil. Helt uppvärmd med data som flyttades in i cachen gav hybriden oss 888 MB/s läsning och 249 MB/s skrivning med ett 1.6 TB-fotavtryck i cachen. AF DR, med 800 GB fotavtryck i cache, gav oss 1,414 160 MB/s läsning och 16 MB/s skriv. Med datamängden upp till 26 TB (spill utanför cachen) gav hybriden oss 56MB/s läsning och 423MB/s skriv, medan AF DR hade en föga förvånande starkare prestanda på 151MB/s läsning och XNUMXMB/s skrivning.
Därefter tittar vi på topp I/O i samma 4k-profil, och här såg vi liknande resultat. Datauppsättningen på 1.6 TB i cachen hade hybriden som visade resultat av 227,342 63,868 IOPS-läsningar och 800 361,923 IOPS-skrivningar, medan 41,031 GB-datauppsättningen för AF DR i cache hade resultat på 16 6,747 IOPS-läsningar och 14,404 108,365 IOPS-skrivningar. Datauppsättningen på 38,778 TB hade hybriden som gav oss XNUMX XNUMX IOPS-läsningar och XNUMX XNUMX IOPS-skrivningar och AF DR hade XNUMX XNUMX IOPS-läsningar och XNUMX XNUMX IOPS-skrivningar.
Nästa mätvärde tittar på den helt slumpmässiga 4K-arbetsbelastningsprofilens genomsnittliga latens. Hybridens 1.6 TB-fotavtryck i cache hade en läslatens på 1ms och en skrivlatens på 4ms. 800 GB footprint i cachen för AF DR hade en läslatens på 0.88 ms och en skrivlatens på 8.29 ms. Med 16TB-datauppsättningen som rinner ut ur cachen kommer det uppenbarligen att bli en mycket större skillnad i resultat eftersom hybriden kommer att spilla ut på 10K snurrande diskar som alltid har högre latens, jämfört med AF DR som stannar på flashenheter. Här gav hybriden oss latenser på 47 ms läsning och 23 ms skrivning, medan AF DR gav oss latenser på 1.65 ms läsning och 4.66 ms skriv.
Vårt nästa test tittar på en större 8K-dataprofil med en blandning av 70 % läs- och 30 % skrivaktivitet. Här nådde hybriden i cache (med 1.6 TB fotavtryck) 947.9 MB/s. AF DR i cache (med 800 GB) hade en prestanda på 631.5 MB/s. När den större 16TB-datauppsättningen rann ut ur cachen, sjönk hybridens prestanda till 67MB/s medan AF DR såg en nedgång till 530MB/s.
Därefter tittar vi på I/O-prestanda för samma 8k 70/30 arbetsbelastning. Hybriden på 1.6 TB registrerade 121,329 80,834 IOPS medan AF DR spelade in 16 8,584 IOPS. När datauppsättningen på 67,882 TB rann ut ur cacheminnet, såg båda konfigurationerna en nedgång i prestanda med hybriden som nu spelade in XNUMX XNUMX IOPS och AF DR spelade in XNUMX XNUMX IOPS.
När vi tittade på 8k 70/30 genomsnittlig latens såg vi liknande placeringar som ovan. Inom cachen hade hybriden en latens på 2ms och AF DR hade en latens på 3.94ms. När den stora datamängden rann ut ur cachen hoppade hybriden upp till 37 ms medan AF DR faktiskt gick ner till 2.63 ms.
Den sista arbetsbelastningen växlar till ett toppbandbreddsfokus, bestående av en 32K sekventiell läs- och skrivprofil. In-cache-prestandan för hybriden visade 2,699 1,193 MB/s läsning och 1,971 1,353 MB/s, och in-cache-prestandan för AF DR visade 16 2,490 MB/s läsning och 1,082 975 MB/s skrivning. Med den större 495TB-datauppsättningen såg vi XNUMX XNUMX MB/s läsa och XNUMX XNUMX MB/s skriva med hybriden och XNUMX MB/s läsa och XNUMX MB/s skriva med AF DR.
I/O-prestanda visade liknande resultat, med hybriden som oftast gav bättre prestanda än AF DR. In-cache hade hybriden prestanda på 86,379 38,184 IOPS-läsning och 63,068 43,302 IOPS-skrivning, medan AF DR hade prestanda på 79,703 34,611 IOPS-läsning och 31,205 15,830 IOPS-skrivning. Med den större datamängden ur cache såg vi att hybriden hade XNUMX XNUMX IOPS-läsningar och XNUMX XNUMX IOPS-skrivningar, medan AF DR hade XNUMX XNUMX IOPS-läsningar och XNUMX XNUMX IOPS-skrivningar.
Med genomsnittlig latens gav hybriden oss 3ms läsning och 8ms skrivning i cache och 4ms läsning och 9 ms skrivning rann ut ur cachen. AF DR, å andra sidan, gav oss 5.29 ms läsning och 7.46 ms skrivning i cache och 5.78 ms och 11.47 ms skriv som rann ut ur cachen.
Slutsats
VMware VSAN 6.2 ger organisationer chansen att utnyttja flash på nya och spännande sätt, vilket leder till både effektivitet och prestandavinster. Höjdpunkterna i den nya utgåvan inkluderar raderingskodning, RAID5-stöd, deduplicering och komprimering, vilket helt klart leder till att du får ut det mesta av flash ur kapacitetssynpunkt. Även om fördelarna med dataminskning kommer att variera beroende på arbetsbelastning och konfiguration, är det rimligt att förvänta sig en kapacitetsökning på 3-6 gånger. Detta innebär i princip att en relativt prisvärd 1TB-enhet effektivt kan leverera 3-6TB. Bara denna fördel gör 6.2 till en värdig uppgradering och ger flash ett utmärkt ställe att utmärka sig.
När du vänder dig till prestanda behöver all-flash-konfigurationen lite nyansering för att förklara ordentligt. VSAN 6.2 ger inga exponentiella vinster jämfört med hybridkonfigurationen vi testade tidigare. Det finns ett par grundläggande skäl till detta. För det första är VSAN entrådad per diskgrupp, vilket begränsar dess förmåga att utnyttja alla flashenheter så effektivt som möjligt. Detta är ett designbeslut eftersom VMwares tonvikt ligger på att minimera VSAN-overhead på systemnivå; detta kan vara område VMware väljer att balansera om i framtida utgåvor. För det andra, när vi aktiverar datareduktionsfunktioner ser vi lägre prestanda på all-flash-konfigurationen än hybrid. På ytan kan detta se ut som ett problem, men för alla som har erfarenhet av datareduktion finns det en massiv prestationsstraff i varje fall som vi har sett. Många gånger har vi sett uppåt 80 % omkostnader med konkurrenskraftiga HCI-lösningar. Detta sammanhang är viktigt; eftersom VSAN all-flash med datareduktion aktiverad faktiskt gjorde ett mycket bra jobb i detta avseende, och matchade VMmark-poängen på 18 plattor som vår äldre hybridkonfiguration kunde. Vidare indikerar VMware att de flesta kunder som köper all-flash-konfigurationer körs med datareduktionsfunktioner aktiverade, vilket gör VSAN-effektivitet mycket viktigt.
För närvarande är datareduktion en allt-eller-inget-inställning, där den gäller för hela datalagret; VMware gör detta för att maximera dedupeeffektiviteten. Dataminskningsserverns resursträff motverkas av kapacitetsexpansionen, vilket är ett kritiskt försäljningsargument i det här fallet. I vår konfiguration med fyra noder, 24-enheter-per-server (vilket är mycket vanligt för VSAN), betyder det att mindre/färre SSD-enheter kan användas för att matcha eller överträffa hårddiskens kapacitet. Detta är naturligtvis utöver alla andra fördelar som SSD-enheter erbjuder som lägre strömförbrukning, minskat kylbehov eller bredare driftstoleranser.
För testning körde vi vårt sortiment av applikationstester inklusive vår MySQL- och Microsoft SQL Server OLTP-prestanda, samt VMmark-virtualiseringsbenchmark av VMware och HCIbench. Med SQL Server var all-flash-versionen den bästa presterande med en sammanlagd poäng på 12,472.8 11,969.1 TPS. All-blixten (AF) med datareduktion (AF DR) presterade också bra med en sammanlagd poäng på 53 30 TPS. Med SQL Server-latens hade AF VSAN den lägsta totala latensen med en sammanlagd poäng på 261ms, ungefär 4,273 % lägre än hybridversionen. Föga överraskande hade AF DR VSAN en mycket högre latens med ett sammanlagt 4,259ms. Med vårt SysBench-test är det intressant att notera här att AF bara presterade ett hår bättre än hybridversionen (60.1 60.3 till 126 131 TPS, skalad genomsnittlig latens på 3,625 ms till 71 ms och värsta tänkbara latens på 212 ms till XNUMX ms). Med datareduktion aktiverad, såg AF DR VSAN en prestandaminskning men hade fortfarande en skalad transaktion per sekund på XNUMX XNUMX, en skalad genomsnittlig latens på XNUMX ms och en värsta latens på XNUMX ms.
Med VMmark och datareduktion aktiverad kunde AF DR VSAN träffa 18 brickor (det tidigare bästa datareduktionssystemet träffade bara 8 brickor). Det gör AF DR VSAN till den högst presterande lagringsuppsättningen med datareduktion i vårt VMmark-test. Det sista testet vi tittade på var HCIbench som, även om det inte visar maximal kapacitet hos ett system, ger oss ett bra mått för att jämföra AF DR VSAN med hybrid VSAN. I vårt 4k HCIbench-test överträffade AF DR VSAN hybridversionen i både in-cache- och spilling-out-of-cache-test, särskilt i läsningar. AF DR kunde nå 4k lässiffror så höga som 1,1414 361,923 MB/s, 0.9 8 IOPS och en genomsnittlig latens på 70 ms. När vi tittar på våra 30k 32/XNUMX-tester presterade hybriden bättre i cachen och AF DR presterade dramatiskt bättre när den väl rann ut ur cachen. I våra XNUMXk sekventiella tester presterade hybrid-VSAN bättre både i och utanför cache än AF DR VSAN.
Vi har gjort en hel del jämförelser mellan vår initiala hybrid-VSAN-konfiguration med en all flash-distribution i den här recensionen. Hybriden höll sig bra i inledande tester och visar fortfarande styrka än idag. Om cachenivåerna är desamma i en hybridkonfiguration och alla flashkonfigurationer och arbetsuppsättningar finns kvar i cachen, kommer prestanda för de två att vara relativt nära. All flash-konfigurationen gynnas dock av alla de nya funktionerna i 6.2, förutom de övergripande fördelarna som flash erbjuder. Vidare kan prispressen nedåt på SSD:er i kombination med datareduktion till och med göra alla flash-VSAN mer kostnadseffektiva per TB än hybrider.
Fördelar
- Starkast presterande plattform med datareduktion som vi har testat hittills
- VSAN 6.2 ger en uppsättning nya funktioner som drar nytta av fördelarna med blixt
- Mycket lätt att ställa in; bekvämt för virtualiseringsadministratörer att hantera
Nackdelar
- VSAN separerar enheter för cache- och kapacitetslager; en enskiktsarkitektur för blixt kan vara värdefullt
- Enkeltrådade diskgrupper inom VSAN begränsar uppåtprestandapotentialen
Bottom Line
VMware VSAN 6.2 lägger till en rad dataeffektivitetsfunktioner till plattformen, vilket gör att alla Flash VSAN-distributioner kan leverera en övertygande blandning av funktioner, prestanda och kapacitet samtidigt som de drar nytta av alla perifera fördelar som flash ger till bordet.
Anmäl dig till StorageReviews nyhetsbrev