In onze eerste segment van de VxRack Node review, hebben we het gehad over de implementatieopties, het overzicht van de primaire beheerinterface en een blik op de hardware achter onze all-flash-prestatieknooppunten van VCE, de Converged Platforms Division van EMC. In dit deel van de review kijken we naar VxRack Nodes in een tweelaagse SAN-configuratie en hoe deze presteert onder onze MySQL Sysbench-workload. We hebben ScaleIO en de onderliggende hardware op een capaciteit van 99.2% gedrukt om de prestaties te evalueren naarmate de werklastintensiteit en capaciteitsvoetafdruk toenam. Ons doel is om het prestatiepotentieel van de Nodes te meten als het gaat om het kunnen leveren van snelle transactieprestaties, inclusief doorvoer en latentie, over een altijd veeleisende werklastschaal in onze gevirtualiseerde omgeving.
In onze eerste segment van de VxRack Node review, hebben we het gehad over de implementatieopties, het overzicht van de primaire beheerinterface en een blik op de hardware achter onze all-flash-prestatieknooppunten van VCE, de Converged Platforms Division van EMC. In dit deel van de review kijken we naar VxRack Nodes in een tweelaagse SAN-configuratie en hoe deze presteert onder onze MySQL Sysbench-workload. We hebben ScaleIO en de onderliggende hardware op een capaciteit van 99.2% gedrukt om de prestaties te evalueren naarmate de werklastintensiteit en capaciteitsvoetafdruk toenam. Ons doel is om het prestatiepotentieel van de Nodes te meten als het gaat om het kunnen leveren van snelle transactieprestaties, inclusief doorvoer en latentie, over een altijd veeleisende werklastschaal in onze gevirtualiseerde omgeving.
VCE VxRack Node (Performance Compute All Flash PF100) Specificaties
- Chassis - Aantal knooppunten: 2U-4 knooppunt
- Processors per knooppunt: dubbele Intel E5-2680 V3, 12c, 2.5 GHz
- Chipset: Intel 610
- DDR4-geheugen per knooppunt: 512 GB (16x 32 GB)
- Geïntegreerde NIC per knooppunt: twee 1-Gbps Ethernet-poorten + 1 10/100 beheerpoort
- RAID-controller per knooppunt: 1x LSI 3008
- SSD's per knooppunt: 4.8 TB (6x 2.5-inch 800 GB eMLC)
- SATADOM per knooppunt: 32GBSLC
- 10GbE-poort per knooppunt: 4x 10Gbps-poorten SFP+
- Voeding: Dual 1600W platina PSU AC
- Router: Cisco Nexus C3164Q-40GE
Dell PowerEdge R730 gevirtualiseerde MySQL 4-8 node cluster
- Acht-zestien Intel E5-2690 v3 CPU's voor 249GHz in cluster (twee per node, 2.6GHz, 12-cores, 30MB cache)
- 1-2 TB RAM (256 GB per knooppunt, 16 GB x 16 DDR4, 128 GB per CPU)
- SD-kaart opstarten (Lexar 16GB)
- 4-8 x Mellanox ConnectX-3 InfiniBand-adapter (vSwitch voor vMotion en VM-netwerk)
- 4-8 x Emulex 16 GB FC HBA met twee poorten
- 4-8 x Emulex 10GbE NIC met twee poorten
- VMware ESXi vSphere 6.0 / Enterprise Plus 8-CPU
- 10GbE-schakelhardware
- Front-endpoorten: Mellanox SX1036 10/40GbE-switch
- Back-endpoorten: Cisco Nexus 3164 10/40GbE-switch
Sysbench-prestaties
Elke sysbench VM is geconfigureerd met drie vDisks, één voor opstarten (~ 92 GB), één met de vooraf gebouwde database (~ 447 GB) en de derde voor de database die wordt getest (270 GB). In eerdere tests hebben we 400 GB toegewezen aan het databasevolume (253 GB databasegrootte), maar om extra VM's op de VxRack Node te plaatsen, hebben we die toewijzing verkleind om meer ruimte te maken. Vanuit het perspectief van systeemresources hebben we elke VM geconfigureerd met 16 vCPU's, 60 GB DRAM en de LSI Logic SAS SCSI-controller gebruikt. Load gen-systemen zijn Dell R730-servers; we variëren van vier tot acht in deze review, waarbij servers per 4VM-groep worden geschaald.
Sysbench-testconfiguratie (per VM)
- CentOS 6.3 64-bits
- Opslagcapaciteit: 1 TB, 800 GB gebruikt
- Percona XtraDB 5.5.30-rel30.1
- Databasetabellen: 100
- Databasegrootte: 10,000,000
- Database-threads: 32
- RAM-buffer: 24 GB
- Testduur: 3 uur
- 2 uur preconditionering 32 threads
- 1 uur 32 draden
Uit de poort met 4VM's plaatsten de VxRack Nodes in totaal bijna 4,000 transacties, wat iets lager is dan XIO ISE-860 SAN-opslag ook geconfigureerd met all-flash en ongeveer 60% sneller dan een hybride Nutanix 4-node-configuratie. Alle VxRack-knooppunten presteerden bijna gelijk en leverden elk ongeveer 1,000 transacties op. Naarmate de werklast groter wordt, begint ScaleIO zich echt te onderscheiden. Bij 8 VM's dicht ScaleIO het gat met XIO ISE 860 met een prestatiesprong naar iets meer dan 6,400 TPS. Bij 12 VM's neemt het de leiding met een paar honderd met 7,488 TPS. Hier wordt het echt interessant. We hebben 12-16 VM-belastingen op andere systemen getest, maar dit was waar de totale prestaties over het algemeen stabiliseerden en afnamen. Bij 16 VM's hebben we de bovengrens bereikt van waar de XIO effectief kan presteren, maar ScaleIO gaat door en boekt een winst van 15% en meet meer dan 9,500 TPS. Stoot het op tot 20 VM's, nog steeds geen tekenen van vertraging, nu met ScaleIO van meer dan 12,000 TPS. Er zijn nog vier VM's aan de mix toegevoegd, opnieuw als een gebroken record dat ScaleIO naar voren schuift met meer dan 13,800 TPS bij 24 VM's. Bumping naar 28 VM's ScaleIO sukkelt voort zonder een beat te breken en meet nu 15,641 TPS. Nu de capaciteitslimieten zijn verwijderd, duwde ScaleIO naar 99.2% gebruik met 32 VM's, de prestaties van het cluster waren meer dan 17,300 TPS toen we uiteindelijk de handdoek in de ring gooiden.
De belangrijkste lessen hier zijn dat de VxNodes de prestaties bij elke stap verbeterden en weinig stoom verloren, zelfs bij volledige capaciteit. Veel andere SAN's zouden zijn uitgevallen met een I/O-knelpunt voordat de capaciteit op was, waar de werklast de capaciteiten van de hardware inhaalt. Naast een ongelooflijke verwerkingscapaciteit speelt een ander interessant verhaal zich af in hoe goed ScaleIO de latentie van de applicatiewerklast handhaafde.
Als u naar een opslagarray kijkt, ziet u over het algemeen een belcurve met prestaties als u op een gegeven moment een zware werklast kiest. De prestaties beginnen traag, bereiken hun hoogtepunt ergens in het midden, waarna de prestaties afnemen ten koste van snel toenemende latentie. Dat punt hebben we nooit gevonden met ScaleIO, zelfs niet bij een bezettingsgraad van 99.2%. Toen onze werklast begon in het bereik van 4-8 VM's, sprong ScaleIO van 32 naar 39.9 ms gemiddelde MySQL-latentie. Vergeleken met de X-IO ISE 860, die respectievelijk 29 en 39 ms meet, had het VxRack-platform een iets hoger initieel responsprofiel. Bij het 12-32VM-bereik keerde het tij echter, waar ScaleIO ongelooflijk lage en platte MySQL-latentie leverde. Het verschil tussen 12VM's en 32VM's was net geen 8ms.
Door onze focus te verleggen naar pieklatentieprofielen met de 99e percentiel latentieweergave, levert ScaleIO een van de beste profielen waar een applicatie-engineer of web-scale provider ooit op zou kunnen hopen. Onder toenemende werklast blijft ScaleIO kalm en laat de piekresponstijden van applicaties niet oplopen, zelfs niet bij de hoogste werklast die we erop hebben gegooid. Wat dit voor klanten betekent, is dat zelfs onder piek- of abnormaal hoge belasting het ScaleIO-platform in staat is om zijn hoofd koel te houden en consistent content te leveren; zonder vertraging.
Conclusie
Nu we ons eerste prestatiesegment op EMC's VxRack Node powered by ScaleIO afronden, kunnen we niet anders dan geschokt zijn door het aangeboden prestatieniveau. ScaleIO slaagde erin om een van de weinige platforms te zijn die het uit de marge sloeg in alle gebieden van onze geschaalde MySQL-test. Ten eerste was de doorvoer fenominaal, waarbij records werden gebroken met een ongelooflijk grote marge... zelfs bij bijna volledige capaciteit. Ten tweede bleef de applicatielatentie vrijwel gelijk door een steeds groter wordende testomgeving. Ten derde slaagde ScaleIO erin om zelfs onder toenemende applicatiebelastingen pieklatentie onder controle te houden, wat erg belangrijk is in een webschaalomgeving waar schommelingen in de vraag ertoe kunnen leiden dat andere applicaties te lijden hebben als de reactietijden te hoog oplopen.
Natuurlijk, het is gemakkelijk om te zeggen dat de ScaleIO-nodes het zo goed deden omdat ze allemaal flashen. Zoals de cijfers echter laten zien, kon het systeem de werklast gemakkelijk aan op volledige capaciteit, iets wat maar heel weinig flash-arrays kunnen doen en tegelijkertijd de latentie onder controle houden. Het is ook vermeldenswaard dat deze eerste prestatiebeoordeling de flexibiliteit van ScaleIO benadrukt, zoals we in deel 1 hebben geïdentificeerd. Het kan worden ingezet als een SAN of hypergeconvergeerd op elke gewenste apparatuur, gebruikt als een VxRack Node in verschillende smaken of als de technische oplossing van VCE VxRack System 1000 Series.
EMC VxRack Node Review: Overzicht
EMC VxRack Node mogelijk gemaakt door ScaleIO: prestatiebeoordeling van SQL Server (2-laags)
EMC VxRack Node mogelijk gemaakt door ScaleIO: synthetische prestatiebeoordeling (2-laags)
EMC VxRack Node mogelijk gemaakt door ScaleIO Review: Synthetic Performance Review (HCI)
EMC VxRack Node mogelijk gemaakt door ScaleIO: SQL Server Performance Review (HCI)
EMC VxRack Node mogelijk gemaakt door ScaleIO: VMmark Performance Review (HCI)
Meld u aan voor de StorageReview-nieuwsbrief