Home Enterprise VMware Virtual SAN Review: Sysbench OLTP-prestaties

VMware Virtual SAN Review: Sysbench OLTP-prestaties

Om de prestaties van het VMware VSAN-cluster in transactionele databaseworkloads te meten, maken we eerst gebruik van de Sysbench OLTP-benchmark, waarbij we goed letten op de totale geaggregeerde prestaties. De Sysbench OLTP benchmark draait bovenop Percona MySQL en maakt gebruik van de InnoDB-opslagengine die binnen een CentOS-installatie werkt. Hoewel een traditionele SAN-infrastructuur beter bestand is tegen grote afzonderlijke werklasten, zijn hypergeconvergeerde systemen ontworpen om die belasting over alle knooppunten in het systeem te spreiden. Daartoe hebben we vier Sysbench VM's op het VSAN-cluster geïmplementeerd, 1 per knooppunt, en hebben we de totale prestaties van het cluster gemeten terwijl ze allemaal tegelijkertijd werkten.


Om de prestaties van het VMware VSAN-cluster in transactionele databaseworkloads te meten, maken we eerst gebruik van de Sysbench OLTP-benchmark, waarbij we goed letten op de totale geaggregeerde prestaties. De Sysbench OLTP benchmark draait bovenop Percona MySQL en maakt gebruik van de InnoDB-opslagengine die binnen een CentOS-installatie werkt. Hoewel een traditionele SAN-infrastructuur beter bestand is tegen grote afzonderlijke werklasten, zijn hypergeconvergeerde systemen ontworpen om die belasting over alle knooppunten in het systeem te spreiden. Daartoe hebben we vier Sysbench VM's op het VSAN-cluster geïmplementeerd, 1 per knooppunt, en hebben we de totale prestaties van het cluster gemeten terwijl ze allemaal tegelijkertijd werkten.

Dell PowerEdge R730xd VMware VSAN-specificaties

  • Dell PowerEdge R730xd-servers (x4)
  • CPU's: acht Intel Xeon E5-2697 v3 2.6 GHz (14C/28T)
  • Geheugen: 64 x 16 GB DDR4 RDIMM
  • SSD: 16 x 800 GB Solid State Drive SAS Mix Gebruik MLC 12 Gbps
  • HDD: 80 x 1.2 TB 10 RPM SAS 6 Gbps
  • Netwerken: 4 x Intel X520 DP 10Gb DA/SFP+, + I350 DP 1Gb Ethernet
  • Opslagcapaciteit: 86.46TB

Sysbench-prestaties

Elke Sysbench VM is geconfigureerd met drie vDisks, één voor opstarten (~ 92 GB), één met de vooraf gebouwde database (~ 447 GB) en de derde voor de database die we gaan testen (400 GB). Vanuit het perspectief van systeemresources hebben we elke VM geconfigureerd met 16 vCPU's, 64 GB DRAM en de LSI Logic SAS SCSI-controller gebruikt. Benadrukt moet worden dat deze configuratie niet is ontworpen om alle bronnen in ons VSAN-cluster volledig te verzadigen en dat er in feite veel bronnen over zijn gebleven. Onder volledige belasting met draaiende benchmark zagen we dat Sysbench VM's tussen de 7,200 en 7,900 MHz verbruikten, waarbij de totale hostbronnen aangeven dat ongeveer 10,000 MHz in gebruik was. Dat liet veel extra CPU-ruimte over, evenals wat I/O-opslagruimte voor extra activiteiten. Verder hadden we slechts ongeveer 3.5 TB verbruikt van de 86.46 TB totale VSAN-opslagcapaciteit in onze configuratie. In latere gedeelten over prestatieanalyse zullen we dieper ingaan op multi-workloadtests en geschaalde sysbench VM-tests.

Sysbench-testconfiguratie (per VM)

  • CentOS 6.3 64-bits
  • Opslagcapaciteit: 1 TB, 800 GB gebruikt
  • Percona XtraDB 5.5.30-rel30.1
    • Databasetabellen: 100
    • Databasegrootte: 10,000,000
    • Database-threads: 32
    • RAM-buffer: 24 GB
  • Testduur: 12 uur
    • 6 uur preconditionering 32 threads
    • 1 uur 32 draden
    • 1 uur 16 draden
    • 1 uur 8 draden
    • 1 uur 4 draden
    • 1 uur 2 draden

Met 4 VM's die tegelijkertijd in het cluster werken, hebben we de piekprestaties van 32-threads van individuele VM's van 694TPS, 664TPS, 713TPS en 758TPS over de hosts gemeten. Dit gaf ons een gemiddelde van 707TPS van alle vier de VM's, waarbij de langzaamste 6.1% onder het gemiddelde lag en de snelste 7.2% sneller dan gemiddeld. Hoewel niet helemaal gelijk, hadden de Sysbench-tests niet veel variatie binnen het cluster. In totaal hebben we een totaal van 2,829 TPS gemeten in het VSAN-cluster met 4 Sysbench VM's die draaien.

Kijkend naar de gemiddelde latentie in de Sysbench hyper-converged test, zagen we responstijden van 46.07 ms, 48.18 ms, 44.86 ms en 42.21 ms onder volledige belasting. Het gemiddelde over het hele cluster kwam uit op 45.33 ms. Van de snelste tot de langzaamste VM zagen we een spreiding van 12.3% in de gemiddelde latentie.

In het laatste deel van de Sysbench MySQL-test bekijken we hoe goed het platform presteerde bij het meten van latentie van het 99e percentiel. Dit is een gebied waar hogere maximale responstijden deze rapportagewaarde zullen verhogen. Bij de 4 Sysbench VM's zagen we tijden onder piekbelasting variërend van 86.91 ms tot 99.23 ms. Maximale latentie gedurende deze periode gemeten tussen 422 ms tot 480 ms op VSAN.

Hypergeconvergeerde infrastructuur kan het beste worden benut door de belasting te spreiden over alle reken- en opslagresources, wat niet noodzakelijkerwijs het geval is bij traditionele IT-infrastructuur. Door gebruik te maken van meerdere databases over de VSAN-knooppunten, krijgen we een duidelijker beeld van de totale prestaties. In dit geval is het een vergelijkbare werklast die over de knooppunten loopt, we zullen binnenkort meerdere werklasten bekijken. Over het algemeen is dit type configuratie echter van cruciaal belang om de best mogelijke prestaties uit VSAN of een andere hypergeconvergeerde oplossing te halen.

Volgende: VSAN Microsoft SQL Server-prestatierapport

VMware Virtual SAN Review: overzicht en configuratie
VMware Virtual SAN Review: VMmark-prestaties
VMware Virtual SAN Review: Sysbench OLTP-prestaties
VMware Virtual SAN Review: SQL Server-prestaties
VMware Virtual SAN Review: geschaalde Sysbench OLTP-prestaties
VMware Virtual SAN Review: HCIbench synthetische prestaties

VMware VSAN-productpagina

Meld u aan voor de StorageReview-nieuwsbrief