Hem Företag EMC VxRack Node som drivs av ScaleIO: Skalad Sysbench OLTP Performance Review (2-lager)

EMC VxRack Node som drivs av ScaleIO: Skalad Sysbench OLTP Performance Review (2-lager)

by Brian Beeler

I vår första segmentet av VxRack Node-recensionen, vi täckte över distributionsalternativen, översikt över det primära gränssnittet för hantering och en titt på hårdvaran bakom alla våra flashprestandanoder från VCE, Converged Platforms Division of EMC. I den här delen av recensionen tar vi en titt på VxRack-noder i en tvålagers SAN-konfiguration och hur den fungerar under vår MySQL Sysbench-arbetsbelastning. Vi pressade ScaleIO och den underliggande hårdvaran till 99.2 % kapacitet för att utvärdera prestanda när arbetsbelastningsintensiteten och kapacitetsavtrycket ökade. Vårt mål är att mäta nodernas prestandapotential när det gäller att kunna leverera transaktionsprestanda i hög hastighet, inklusive genomströmning och latens, över en ständigt krävande arbetsbelastningsskala i vår virtualiserade miljö.


I vår första segmentet av VxRack Node-recensionen, vi täckte över distributionsalternativen, översikt över det primära gränssnittet för hantering och en titt på hårdvaran bakom alla våra flashprestandanoder från VCE, Converged Platforms Division of EMC. I den här delen av recensionen tar vi en titt på VxRack-noder i en tvålagers SAN-konfiguration och hur den fungerar under vår MySQL Sysbench-arbetsbelastning. Vi pressade ScaleIO och den underliggande hårdvaran till 99.2 % kapacitet för att utvärdera prestanda när arbetsbelastningsintensiteten och kapacitetsavtrycket ökade. Vårt mål är att mäta nodernas prestandapotential när det gäller att kunna leverera transaktionsprestanda i hög hastighet, inklusive genomströmning och latens, över en ständigt krävande arbetsbelastningsskala i vår virtualiserade miljö.

Specifikationer för VCE VxRack Node (Performance Compute All Flash PF100).

  • Chassi – # nod: 2U-4 nod
  • Processorer per nod: Dual Intel E5-2680 V3, 12c, 2.5 GHz
  • Chipset: Intel 610
  • DDR4-minne per nod: 512 GB (16x 32 GB)
  • Inbyggt nätverkskort per nod: Dubbla 1-Gbps Ethernet-portar + 1 10/100-hanteringsport
  • RAID-kontroller per nod: 1x LSI 3008
  • SSD:er per nod: 4.8 TB (6x 2.5-tums 800 GB eMLC)
  • SATADOM per nod: 32GBSLC
  • 10GbE-port per nod: 4x 10Gbps-portar SFP+
  • Strömförsörjning: Dubbel 1600W platina PSU AC
  • Router: Cisco Nexus C3164Q-40GE

Dell PowerEdge R730 Virtualiserat MySQL 4-8 nodkluster

  • Åtta-sexton Intel E5-2690 v3-processorer för 249 GHz i kluster (två per nod, 2.6 GHz, 12-kärnor, 30 MB cache) 
  • 1-2 TB RAM (256 GB per nod, 16 GB x 16 DDR4, 128 GB per CPU)
  • SD-kortstart (Lexar 16GB)
  • 4-8 x Mellanox ConnectX-3 InfiniBand Adapter (vSwitch för vMotion och VM-nätverk)
  • 4-8 x Emulex 16GB dual-port FC HBA
  • 4-8 x Emulex 10GbE nätverkskort med dubbla portar
  • VMware ESXi vSphere 6.0 / Enterprise Plus 8-CPU
  • 10 GbE växlingsmaskinvara
    • Front-end-portar: Mellanox SX1036 10/40GbE Switch
    • Back-end-portar: Cisco Nexus 3164 10/40GbE Switch

Sysbench Performance

Varje sysbench VM är konfigurerad med tre vDisks, en för uppstart (~92GB), en med den förbyggda databasen (~447GB) och den tredje för databasen som testas (270GB). I tidigare tester allokerade vi 400 GB till databasvolymen (253 GB databasstorlek), även om vi för att packa ytterligare virtuella datorer på VxRack-noden krympte den tilldelningen för att göra mer utrymme. Ur ett systemresursperspektiv konfigurerade vi varje virtuell dator med 16 vCPU:er, 60 GB DRAM och utnyttjade LSI Logic SAS SCSI-kontrollern. Last gen system är Dell R730-servrar; vi sträcker sig från fyra till åtta i denna recension, skalar servrar per 4VM-grupp.

Sysbench-testkonfiguration (per virtuell dator)

  • CentOS 6.3 64-bitars
  • Lagringsutrymme: 1 TB, 800 GB använt
  • Percona XtraDB 5.5.30-rel30.1
    • Databastabeller: 100
    • Databasstorlek: 10,000,000 XNUMX XNUMX
    • Databastrådar: 32
    • RAM-buffert: 24GB
  • Testlängd: 3 timmar
    • 2 timmar förkonditionering 32 trådar
    • 1 timme 32 trådar

Utanför porten med 4VM:er postade VxRack-noderna totalt nästan 4,000 XNUMX transaktioner, vilket är något lägre än XIO ISE-860 SAN-lagring är också konfigurerad med all-flash och cirka 60 % snabbare än en hybrid Nutanix 4-nodskonfiguration. Alla VxRack-noder presterade nästan lika och levererade cirka 1,000 8 transaktioner vardera. När arbetsbelastningen blir större, börjar ScaleIO verkligen att differentiera sig. Vid 860VMs stänger ScaleIO gapet med XIO ISE 6,400 med prestanda som hoppar till drygt 12 7,488 TPS. Vid 12VM tar den ledningen med några hundra och mäter 16 16 TPS. Det är här det blir riktigt intressant. Vi har testat 15-9,500VM-belastningar på andra system, men det var här den sammanlagda prestandan i allmänhet planade ut och minskade. På 20VMs har vi nått den övre kanten av var XIO kan leverera effektivt men ScaleIO fortsätter, med en vinst på 12,000 % och mäter över 13,800 24 TPS. Bumpar upp den till 28VM, fortfarande inga tecken på att sakta ner, nu med ScaleIO som mäter över 15,641 99.2 TPS. Ytterligare fyra virtuella datorer läggs till i mixen, återigen som ett brutet rekord ScaleIO går framåt och mäter över 32 17,300 TPS vid XNUMX VM. Bumping till XNUMXVMs ScaleIO tuffar på utan att bryta ett slag, och mäter nu XNUMX XNUMX TPS. När kapacitetsbegränsningarna togs bort, drev ScaleIO till XNUMX % utnyttjande med XNUMXVMs, prestanda för klustret uppmättes över XNUMX XNUMX TPS när vi äntligen kastade in handduken. 

De viktigaste lärdomarna här är att VxNodes ökade prestandan vid varje steg och tappade lite kraft även när de hade full kapacitet. Många andra SAN:er skulle ha ramlat med en I/O-flaskhals innan kapaciteten tog slut, där arbetsbelastningen hinner ikapp hårdvarans kapacitet. Utöver bara otrolig genomströmning, utspelar sig en annan intressant historia i hur väl ScaleIO upprätthöll applikationens arbetsbelastningsfördröjning.

Generellt när du tittar på en lagringsuppsättning, om du väljer en tung arbetsbelastning någon gång kommer du att se en klockkurva med prestanda. Prestanda kommer att börja långsamt, nå sin topp någonstans i mitten, sedan kommer prestandan att avta på bekostnad av snabbt ökande latens. Vi hittade aldrig den punkten med ScaleIO, ens vid 99.2 % kapacitetsutnyttjande. När vår arbetsbelastning startade i intervallet 4-8 VM, hoppade ScaleIO från 32 till 39.9 ms genomsnittlig MySQL-latens. Jämfört med X-IO ISE 860, som mätte 29 respektive 39 ms, hade VxRack-plattformen en något högre initial responsprofil. Vid intervallet 12-32VM vände dock tidvattnet, där ScaleIO levererade otroligt låg och platt MySQL-latens. Skillnaden mellan 12VMs och 32VMs var strax under 8ms.

Genom att flytta vårt fokus mot toppfördröjningsprofiler med 99:e percentilens latensvy, levererar ScaleIO en av de bästa profilerna en applikationsingenjör eller webbskalig leverantör någonsin kan hoppas på. Under ökande arbetsbelastningsintensitet behåller ScaleIO sitt lugn och låter inte toppsvarstider för applikationer blåsa upp, även vid den högsta belastningsintensiteten vi kastade på den. Vad detta betyder för kunderna är att även under topp eller onormalt hög belastning kan ScaleIO-plattformen hålla sig kall och konsekvent leverera innehåll; utan fördröjning.

Slutsats

När vi avslutar vårt första prestandasegment på EMC:s VxRack Node som drivs av ScaleIO, kan vi inte låta bli att bli chockade över den prestandanivå som erbjuds. ScaleIO lyckades vara en av de få plattformarna som slog den ur bollplanken på alla områden av vårt skalade MySQL-test. För det första var genomströmningen fenomenal och slog rekord med en otroligt bred marginal... även vid nästan full kapacitet. För det andra förblev applikationslatensen nästan oförändrad genom en ständigt ökande testmiljö. För det tredje, även under stigande applikationsbelastningar lyckades ScaleIO hålla topplatensen i schack, vilket är mycket viktigt i en webbskalig miljö där svängningar i efterfrågan kan få andra applikationer att lida om svarstiderna kryper för höga.

Visst, det är lätt att säga att ScaleIO-noderna gjorde det så bra eftersom de är all-flash. Men som siffrorna visar klarade systemet lätt arbetsbelastningen med full kapacitet, något väldigt få flash-arrayer kan göra samtidigt som man håller latensen i schack. Det är också värt att notera att denna första prestandarecension belyser flexibiliteten hos ScaleIO som vi identifierade i del 1. Den kan distribueras som ett SAN eller hyperkonvergeras på vilken utrustning du vill, konsumeras som en VxRack Node i en mängd olika smaker eller som den konstruerade lösningen från VCE VxRack System 1000-serien. 

EMC VxRack Node Review: Översikt
EMC VxRack Node Drivs av ScaleIO: SQL Server Performance Review (2-lager)
EMC VxRack Node Drivs av ScaleIO: Synthetic Performance Review (2-lager)
EMC VxRack Node Drivs av ScaleIO Review: Synthetic Performance Review (HCI)
EMC VxRack Node Drivs av ScaleIO: SQL Server Performance Review (HCI)
EMC VxRack Node Drivs av ScaleIO: VMmark Performance Review (HCI)

Diskutera denna recension

Anmäl dig till StorageReviews nyhetsbrev