Dopo aver esaminato i livelli di prestazioni del cluster VMware VSAN con un tradizionale Sysbench OLTP carico di lavoro, volevamo scoprire come la piattaforma risponde a un carico di lavoro maggiore per casi d'uso più impegnativi. La distribuzione iniziale prevedeva quattro VM Sysbench, 1 per nodo, ma quel carico di lavoro non ha portato l'I/O del disco a un intervallo sufficientemente elevato in cui ritenevamo che le risorse fossero completamente utilizzate. Ciò è simile a un cliente che esegue un POC, testandolo su un sottoinsieme del carico di lavoro attuale, ma senza misurare la risposta della piattaforma alla crescita dei carichi di lavoro nel tempo o alla migrazione di più dati dell'applicazione. Per comprendere meglio come risponde questo cluster VSAN ai carichi di lavoro MySQL in costante aumento, abbiamo scalato il benchmark delle quattro VM Sysbench (1 per nodo) fino a 8 e 12 VM totali.
Dopo aver esaminato i livelli di prestazioni del cluster VMware VSAN con un tradizionale Sysbench OLTP carico di lavoro, volevamo scoprire come la piattaforma risponde a un carico di lavoro maggiore per casi d'uso più impegnativi. La distribuzione iniziale prevedeva quattro VM Sysbench, 1 per nodo, ma quel carico di lavoro non ha portato l'I/O del disco a un intervallo sufficientemente elevato in cui ritenevamo che le risorse fossero completamente utilizzate. Questo è simile a un cliente che esegue un POC, testandolo su un sottoinsieme del carico di lavoro attuale, ma senza misurare la risposta della piattaforma alla crescita dei carichi di lavoro nel tempo o alla migrazione di più dati dell'applicazione. Per comprendere meglio come risponde questo cluster VSAN ai carichi di lavoro MySQL in costante aumento, abbiamo scalato il benchmark delle quattro VM Sysbench (1 per nodo) fino a 8 e 12 VM totali.
Specifiche di Dell PowerEdge R730xd VMware VSAN
- Server Dell PowerEdge R730xd (x4)
- CPU: otto Intel Xeon E5-2697 v3 2.6 GHz (14C/28T)
- Memoria: RDIMM DDR64 da 16 x 4 GB
- SSD: 16 unità a stato solido SAS miste da 800 GB con MLC a 12 Gbps
- HDD: 80 SAS da 1.2 RPM da 10 TB a 6 Gbps
- Rete: 4 x Intel X520 DP 10Gb DA/SFP+, + I350 DP 1Gb Ethernet
- Capacità di archiviazione: 86.46TB
Prestazioni del Sysbench
Ogni VM Sysbench è configurata con tre vDisk, uno per l'avvio (~92 GB), uno con il database precostruito (~447 GB) e il terzo per il database in prova (400 GB). Dal punto di vista delle risorse di sistema, abbiamo configurato ciascuna VM con 16 vCPU, 64 GB di DRAM e abbiamo sfruttato il controller SCSI SAS LSI Logic.
Con un carico di 8 VM, abbiamo osservato che le VM Sysbench consumano tra 5,200 e 6,300 MHz ciascuna, con risorse host totali che indicano che sono stati utilizzati circa 18,000 MHz. Ciò ha lasciato una grande quantità di risorse della CPU con solo il 22% utilizzato per host, anche se con un carico di lavoro di 8 VM Sysbench stavamo utilizzando quasi tutta la cache SSD disponibile. Per quanto riguarda l'impatto sullo spazio di archiviazione, abbiamo caricato 16 VM Sysbench per ampliare l'ingombro complessivo, consumando circa 14 TB della capacità di archiviazione VSAN totale di 86.46 TB. Al momento del carico di lavoro di 8 VM, tuttavia, solo 7 TB dei 14 TB erano attivi. Questo rispetto a 3.5 TB nel carico di lavoro di 4 VM.
Configurazione test Sysbench (per VM)
- CentOS 6.3 a 64 bit
- Impronta di archiviazione: 1 TB, 800 GB utilizzati
- Percona XtraDB 5.5.30-rel30.1
- Tabelle del database: 100
- Dimensione del database: 10,000,000
- Discussioni del database: 32
- Memoria RAM: 24 GB
- Durata della prova: 12 ore
- 6 ore di precondizionamento di 32 thread
- 1 ora 32 thread
- 1 ora 16 thread
- 1 ora 8 thread
- 1 ora 4 thread
- 1 ora 2 thread
Man mano che abbiamo scalato il carico di lavoro OLTP di Sysbench, abbiamo misurato un aumento delle prestazioni da 2,830 TPS in totale con 4 VM a 4,259 TPS con 8 VM. Ciò si traduce in un aumento del 50% delle prestazioni con il raddoppio dell'ingombro del carico di lavoro.
Con l'aumento delle prestazioni transazionali aggregate, abbiamo misurato un aumento medio della latenza da 45 ms a 60 ms su base per VM. Si tratta di un salto di circa il 33% rispetto al carico di lavoro più piccolo.
Anche la latenza media del 99° percentile è aumentata da 94 ms a 131 ms con l'aumento delle richieste di I/O.
Mentre il benchmark era in funzione, abbiamo acquisito le statistiche di CPU, disco e rete da vCenter. Durante il test su 8 VM abbiamo riscontrato una diffusione VM-CPU da 5,275 MHz fino a 6,393 MHz tra le VM.
Con 2 VM attive per nodo abbiamo riscontrato un'attività mista del disco che misurava un totale di 609 MB/s dopo l'avvio del carico di lavoro. I picchi più grandi sono stati misurati mentre il database precostruito si copiava all'interno di ciascuna VM all'inizio del test.
Il traffico di rete da un host durante il test Sysbench da 8 VM ha misurato un misto di 391 MB/s dopo che il test si è stabilizzato.
Poiché lo scopo di questo test è mostrare come VSAN risponde a un carico di lavoro in costante aumento, abbiamo spinto la piattaforma a 12 VM totali dopo l'esecuzione di 8 VM. Questo è stato il punto di rottura in cui parte del carico di lavoro è stata spinta fuori dalla cache dell'SSD. Non abbiamo tracciato queste prestazioni perché la maggior parte dei carichi di lavoro non è stata completata o non ha ottenuto punteggi adeguati. Per le VM completate, avremmo riscontrato prestazioni delle transazioni aggregate fino a 1000-1500 TPS nel cluster. Il calo di prestazioni che abbiamo misurato può ovviamente essere mitigato con dispositivi flash più grandi, come SSD da 1.6 TB invece di 800 GB, o passando a un modello VSAN all-flash in cui il riversamento nel livello di lettura non ha un impatto così ampio Eliminazione I/O. Ciò sottolinea la necessità di dimensionare adeguatamente il componente Flash dell'ambiente VSAN, gli amministratori o i loro partner rivenditori dovrebbero avere una buona conoscenza del set di dati di lavoro. Questo è uno dei punti di forza della piattaforma VSAN; consentendo ai clienti di personalizzare le configurazioni per soddisfare al meglio le esigenze dei carichi di lavoro attuali e futuri o di scambiare/aggiungere SSD in modo economico secondo necessità.
Sapere dove sono i punti di rottura della tua piattaforma è molto importante. I carichi di lavoro distribuiti inizialmente aumenteranno solitamente con il passare del tempo, sia in numero di VM che in capacità di archiviazione. Ogni piattaforma di storage ha un punto di strozzatura (anche gli array all-flash), che ci porta a capire come si comporta questo cluster VSAN a quattro nodi. Attualmente abbiamo solo una piattaforma di storage che esegue con successo 12 e 16 VM Sysbench, ovvero un array all-flash con un prezzo consigliato di $ 575,000. I test futuri di questo cluster VSAN includeranno tuttavia configurazioni all-flash, per tentare di raggiungere obiettivi prestazionali simili.
Revisione di VMware Virtual SAN: panoramica e configurazione
Recensione di VMware Virtual SAN: prestazioni di VMmark
Recensione di VMware Virtual SAN: prestazioni OLTP di Sysbench
Recensione su VMware Virtual SAN: prestazioni di SQL Server
Recensione di VMware Virtual SAN: prestazioni OLTP Sysbench scalabili
Recensione di VMware Virtual SAN: prestazioni sintetiche di HCIbench
Pagina del prodotto VMware VSAN
Iscriviti alla newsletter di StorageReview