L'anno scorso abbiamo pubblicato a serie dettagliata di recensioni su VSAN 6.0 in una configurazione ibrida. Nel febbraio di quest'anno, VMware ha lanciato VSAN 6.2, che ha introdotto sul mercato la riduzione dei dati tramite deduplicazione e compressione, oltre a una serie di altre funzionalità. La riduzione dei dati rappresenta un importante passo avanti per VSAN poiché si appoggia alla massiccia ondata di adozione di flash, grazie in gran parte al calo dei prezzi e alle opzioni di alta qualità. Quando VSAN è abilitato in una configurazione all-flash, gli utenti che sfruttano la riduzione dei dati possono effettivamente triplicare (o più) la propria capacità a seconda dei carichi di lavoro, il che porta davvero il valore del flash a tutti, dal ROBO all'azienda.
L'anno scorso abbiamo pubblicato a serie dettagliata di recensioni su VSAN 6.0 in una configurazione ibrida. Nel febbraio di quest'anno, VMware ha lanciato VSAN 6.2, che ha introdotto sul mercato la riduzione dei dati tramite deduplicazione e compressione, oltre a una serie di altre funzionalità. La riduzione dei dati rappresenta un importante passo avanti per VSAN poiché si appoggia alla massiccia ondata di adozione di flash, grazie in gran parte al calo dei prezzi e alle opzioni di alta qualità. Quando VSAN è abilitato in una configurazione all-flash, gli utenti che sfruttano la riduzione dei dati possono effettivamente triplicare (o più) la propria capacità a seconda dei carichi di lavoro, il che porta davvero il valore del flash a tutti, dal ROBO all'azienda.
Mentre proseguiamo la nostra revisione di VSAN, abbiamo sfruttato lo stesso cluster Dell PowerEdge R730xd utilizzato nella precedente recensione di Hybrid. Abbiamo apportato aggiornamenti alla piattaforma, inclusi BIOS, firmware ed ESXi per renderla compatibile con VSAN 6.2. Uno dei cambiamenti più grandi, tuttavia, è la sostituzione dei nostri HDD e SSD esistenti con una nuova configurazione all-flash, per gentile concessione di Toshiba. Sfruttando alcuni degli SSD SAS3 più veloci sul mercato, siamo in grado di concentrare tutta la nostra attenzione sul VSAN stesso, senza che l'hardware lo ostacoli.
Specifiche VSAN all-flash di Dell PowerEdge R730xd VMware
- Server Dell PowerEdge R730xd (x4)
- CPU: otto Intel Xeon E5-2697 v3 2.6 GHz (14C/28T)
- Memoria: RDIMM DDR64 da 16 x 4 GB
- SSD:
- Cache: 16 x 400 GB Toshiba PX04 SAS3 ad alta intensità di scrittura
- Capacità: 80 x 960 GB Toshiba PX04 a lettura intensiva SAS3
- Rete: 4 x Intel X520 DP 10Gb DA/SFP+, + I350 DP 1Gb Ethernet
- Capacità di archiviazione: 69.86TB
Le unità Toshiba utilizzate per questa recensione erano le Modelli Toshiba PX04S. Nella nostra recensione precedente abbiamo scoperto che i modelli PX04S erano gli SSD aziendali SAS più veloci che abbiamo testato finora. Il PX04S era anche l'SSD SAS a doppia porta con la capacità più elevata al momento della recensione. La serie PX04S è disponibile in diversi livelli di resistenza, che vanno dall'alta resistenza alla bassa resistenza con modelli di resistenza media e di valore. Per questa recensione abbiamo popolato il Dell PowerEdge R730xd con sedici unità da 400 GB ad alta intensità di scrittura (PX04SHB040) e ottanta unità da 960 GB con resistenza al valore (PX04SVB096). Le unità ad alta intensità di scrittura vantano fino a 25 DWPD, mentre le unità ad alta resistenza fino a 3 DWPD. In confronto, nella configurazione ibrida con gli stessi server, il livello di cache era composto da quattro SSD Toshiba PX02 da 800 GB per host, ottenendo il doppio della capacità del livello di cache.
Specifiche dell'unità PX04SHB040 da 400 GB ad alta intensità di scrittura:
- Performance
- Lettura sequenziale sostenuta da 64 KiB: 1,900 MiB/s
- Scrittura sequenziale sostenuta da 64 KiB: 850 MiB/s
- Lettura casuale sostenuta da 4 KiB: 270 IOPS
- Scrittura casuale continua da 4 KiB: 125 IOPS
- DWPD: 25
Specifiche dell'unità PX04SVB096 da 960 GB con elevata resistenza:
- Performance
- Lettura sequenziale sostenuta da 64 KiB: 1,900 MiB/s
- Scrittura sequenziale sostenuta da 64 KiB: 850 MiB/s
- Lettura casuale sostenuta da 4 KiB: 270 IOPS
- Scrittura casuale continua da 4 KiB: 60 IOPS
- DWPD: 3
Analisi del carico di lavoro dell'applicazione
Per questa recensione abbiamo ripopolato il Dell PowerEdge R730xd VMware VSAN con tutti gli SSD Toshiba PX04 SAS3. I primi parametri di riferimento sono costituiti da Prestazioni MySQL OLTP tramite SysBench che a Prestazioni OLTP di Microsoft SQL Server con un carico di lavoro TPC-C simulato.
Ogni VM SQL Server è configurata con due vDisk, uno da 100 GB per l'avvio e uno da 500 GB per il database e i file di registro. Dal punto di vista delle risorse di sistema, abbiamo configurato ciascuna VM con 16 vCPU, 64 GB di DRAM e abbiamo sfruttato il controller SCSI SAS LSI Logic. Questi test sono progettati per monitorare le prestazioni di un'applicazione sensibile alla latenza sul cluster con un carico di elaborazione e archiviazione moderato, ma non eccessivo.
Configurazione di test di SQL Server (per VM)
- Di Windows Server 2012 R2
- Impronta di archiviazione: 600 GB allocati, 500 GB utilizzati
- SQL Server 2014
- Dimensioni del database: scala 1,500
- Carico del client virtuale: 15,000
- Memoria RAM: 48 GB
- Durata della prova: 3 ore
- 2.5 ore di precondizionamento
- Periodo di campionamento di 30 minuti
Nel test TPC-C di SQL Server su piattaforme iperconvergenti, esaminiamo il bilanciamento del carico di lavoro nel cluster in modalità ibrida, modalità all-flash (AF) e riduzione dei dati all-flash (AF DR). La versione AF ha fornito prestazioni leggermente migliori rispetto a quella ibrida, con singole VM che vanno da 3,112.4 TPS a 3,130.4 TPS, con un punteggio complessivo di 12,472.8 TPS, il punteggio più alto in assoluto. La configurazione DR si trovava all'estremità inferiore delle configurazioni di test, con singole VM che andavano da 2,982.1 TPS a 3,009.6 TPS, con un punteggio complessivo di 11,969.1 TPS.
Per il test TPC-C di SQL Server, la variabile a cui prestiamo maggiore attenzione è la latenza media. Piccole lacune nelle prestazioni transazionali non mostreranno la storia completa. Nel nostro test di latenza media abbiamo notato che il punteggio più alto della versione AF, 64 ms, era uguale al punteggio peggiore dell'ibrido. Anche l'AF ha ottenuto un punteggio medio di 53 ms. Ancora una volta la configurazione DR si è posizionata in fondo alla classifica, con un minimo di 236 ms, un massimo di 278 ms e una media di 261 ms.
Prestazioni del Sysbench
Ogni VM Sysbench è configurata con tre vDisk: uno per l'avvio (~92 GB), uno con il database predefinito (~447 GB) e il terzo per il database in fase di test (400 GB). Dal punto di vista delle risorse di sistema, abbiamo configurato ciascuna VM con 16 vCPU, 64 GB di DRAM e abbiamo sfruttato il controller SCSI SAS LSI Logic.
Configurazione test Sysbench (per VM)
- CentOS 6.3 a 64 bit
- Impronta di archiviazione: 1 TB, 800 GB utilizzati
- Percona XtraDB 5.5.30-rel30.1
- Tabelle del database: 100
- Dimensione del database: 10,000,000
- Discussioni del database: 32
- Memoria RAM: 24 GB
- Durata della prova: 12 ore
- 6 ore di precondizionamento di 32 thread
- 1 ora 32 thread
- 1 ora 16 thread
- 1 ora 8 thread
- 1 ora 4 thread
- 1 ora 2 thread
Con Sysbench OLTP esaminiamo la configurazione 8VM per ciascuno. L'AF ha avuto la meglio, leggermente, superando l'ibrido con un valore compreso tra 4,273 TPS e 4,259 TPS. La configurazione DR ha ottenuto 3,625 TPS.
Osservando la latenza media, è un po' una sorpresa vedere che l'AF non era considerevolmente più alto di quello ibrido, rispettivamente da 60.1 ms a 60.3 ms. Il DR ha ottenuto punteggi molto più alti con una latenza di 71 ms.
La latenza media del 99° percentile ha mostrato ancora una volta una piccola diminuzione della latenza per l'AF rispetto all'ibrido, rispettivamente da 126 ms a 131 ms. Il DR aveva una latenza molto più elevata, pari a 212 ms.
Analisi delle prestazioni di VMmark
Come per tutte le nostre analisi delle prestazioni delle applicazioni, cerchiamo di mostrare come i prodotti si comportano in un ambiente di produzione dal vivo rispetto alle dichiarazioni dell'azienda sulle prestazioni. Comprendiamo l'importanza di valutare lo storage come componente di sistemi più grandi, soprattutto quanto sia reattivo lo storage quando interagisce con le principali applicazioni aziendali. In questo test utilizziamo il file Benchmark sulla virtualizzazione VMmark di VMware in un ambiente multiserver.
VMmark, per sua stessa progettazione, è un benchmark ad alto utilizzo di risorse, con un ampio mix di carichi di lavoro applicativi basati su VM che mettono a dura prova l'attività di archiviazione, rete e elaborazione. Quando si tratta di testare le prestazioni di virtualizzazione, non esiste quasi nessun benchmark migliore, poiché VMmark esamina così tanti aspetti, coprendo I/O di archiviazione, CPU e persino prestazioni di rete negli ambienti VMware.
Qui esaminiamo il miglioramento delle prestazioni complessive di VMmark e delle applicazioni nelle nostre configurazioni VSAN ibride e all-flash con riduzione dei dati.
Capace di 18 tile con compressione e deduplica abilitate, VSAN è il sistema di archiviazione con le prestazioni più elevate con riduzione dei dati che abbiamo testato fino ad oggi. Nei benchmark precedenti, abbiamo raggiunto gli 8 riquadri con un'appliance di deduplicazione dedicata davanti a un array all-flash.
Osservando le risorse della CPU su uno degli host durante questa esecuzione VSAN All-Flash da 18 riquadri, il sistema ha registrato un utilizzo della CPU pari a circa l'80-85%. Quindi, anche se l'aspetto dello storage non poteva spingersi oltre, il cluster aveva ancora alcune risorse rimaste.
Configurazione del test HCIbench
- 16 VM
- 10 VMDK per VM
- VMDK da 10 GB (ingombro di 1.6 TB)
- VMDK da 50 GB (ingombro di 8 TB)
- VMDK da 100 GB (ingombro di 16 TB)
- Inizializzazione dell'archiviazione in scrittura completa
- Intervalli di prova di 1.5 ore (precondizionamento di 30 minuti, periodo di campionamento del test di 60 minuti)
Per testare le configurazioni ibride e AF DR del nostro VMware VSAN abbiamo implementato due diverse configurazioni per i nostri profili di carico di lavoro. Questi includevano un ingombro di 1.6 TB (completamente in cache per l'ibrido), 800 GB (completamente in cache per AF DR) e 16 TB (fuori dalla cache) per mostrare come la piattaforma risponde all'aumento dei dati importanti. Queste dimensioni possono essere regolate per ciascuna piattaforma a seconda della quantità di flash di cui viene eseguito il provisioning per la cache o il tiering.
Profili del carico di lavoro HCIbench di StorageReview
- Lettura casuale 4K al 100%.
- Scrittura casuale 4K al 100%.
- 8K Casuale, 70% lettura/30% scrittura
- Lettura sequenziale al 32% di 100K
- Scrittura sequenziale al 32% da 100K
Il primo test HCIbench esamina il picco di throughput casuale della piattaforma VMware VSAN con un profilo di carico di lavoro 4K completamente casuale. Completamente riscaldato con i dati spostati nella cache, l'ibrido ci ha fornito 888 MB/s in lettura e 249 MB/s in scrittura con un ingombro di 1.6 TB nella cache. L'AF DR, con un ingombro di 800 GB nella cache, ci ha fornito 1,414 MB/s in lettura e 160 MB/s in scrittura. Con il set di dati fino a 16 TB (fuoriuscita dalla cache), l'ibrido ci ha fornito 26 MB/s in lettura e 56 MB/s in scrittura, mentre l'AF DR ha avuto prestazioni sorprendentemente più elevate di 423 MB/s in lettura e 151 MB/s in scrittura.
Successivamente esaminiamo il picco di I/O nello stesso profilo 4K e qui abbiamo visto risultati simili. Il set di dati da 1.6 TB nella cache aveva l'ibrido che mostrava risultati di 227,342 IOPS in lettura e 63,868 IOPS in scrittura, mentre il set di dati da 800 GB per AF DR nella cache aveva risultati di 361,923 IOPS in lettura e 41,031 IOPS in scrittura. Il set di dati da 16 TB prevedeva che l'ibrido ci fornisse 6,747 IOPS in lettura e 14,404 IOPS in scrittura, mentre AF DR ha registrato 108,365 IOPS in lettura e 38,778 IOPS in scrittura.
Il parametro successivo esamina la latenza media del profilo di carico di lavoro 4K completamente casuale. L'ingombro nella cache da 1.6 TB per l'ibrido aveva una latenza di lettura di 1 ms e una latenza di scrittura di 4 ms. L'ingombro di 800 GB nella cache per AF DR aveva una latenza di lettura di 0.88 ms e una latenza di scrittura di 8.29 ms. Con il set di dati da 16 TB che fuoriesce dalla cache ci sarà ovviamente una discrepanza molto maggiore nei risultati poiché l'ibrido si riverserà su dischi rotanti da 10K che hanno sempre una latenza più elevata, rispetto al DR AF che rimane su unità flash. In questo caso l'ibrido ci ha fornito latenze di 47 ms in lettura e 23 ms in scrittura, mentre l'AF DR ci ha fornito latenze di 1.65 ms in lettura e 4.66 ms in scrittura.
Il nostro prossimo test esamina un profilo dati 8K più ampio con un misto di attività di lettura al 70% e di scrittura al 30%. Qui l'ibrido in cache (con un ingombro di 1.6 TB) ha raggiunto i 947.9 MB/s. Il DR AF nella cache (con 800 GB) ha registrato prestazioni di 631.5 MB/s. Con il set di dati più grande da 16 TB che fuoriesce dalla cache, le prestazioni dell'ibrido sono scese a 67 MB/s mentre l'AF DR ha registrato un calo a 530 MB/s.
Successivamente esamineremo le prestazioni I/O dello stesso carico di lavoro 8K 70/30. L'impronta ibrida da 1.6 TB ha registrato 121,329 IOPS mentre AF DR ha registrato 80,834 IOPS. Una volta che il set di dati da 16 TB è uscito dalla cache, entrambe le configurazioni hanno registrato un calo delle prestazioni, con l'ibrido che ora registra 8,584 IOPS e l'AF DR che registra 67,882 IOPS.
Osservando la latenza media di 8k 70/30, abbiamo riscontrato un posizionamento simile a quello sopra. All'interno della cache, l'ibrido aveva una latenza di 2 ms mentre l'AF DR aveva una latenza di 3.94 ms. Con l'ampio set di dati fuoriuscito dalla cache, l'ibrido è balzato fino a 37 ms mentre l'AF DR è sceso a 2.63 ms.
L'ultimo carico di lavoro passa al focus sulla larghezza di banda di picco, costituito da un profilo di lettura e scrittura sequenziale di 32K. Le prestazioni in cache dell'ibrido hanno mostrato 2,699 MB/s in lettura e 1,193 MB/s, mentre le prestazioni in cache dell'AF DR hanno mostrato 1,971 MB/s in lettura e 1,353 MB/s in scrittura. Con il set di dati più grande da 16 TB abbiamo registrato 2,490 MB/s in lettura e 1,082 MB/s in scrittura con l'ibrido e 975 MB/s in lettura e 495 MB/s in scrittura con AF DR.
Le prestazioni di I/O hanno mostrato risultati simili, con l'ibrido che ha fornito prestazioni per lo più migliori rispetto all'AF DR. Nella cache, l'ibrido ha registrato prestazioni di 86,379 IOPS in lettura e 38,184 IOPS in scrittura, mentre AF DR ha registrato prestazioni di 63,068 IOPS in lettura e 43,302 IOPS in scrittura. Con il set di dati più grande fuori dalla cache abbiamo visto che l'ibrido ha registrato 79,703 IOPS in lettura e 34,611 IOPS in scrittura, mentre AF DR ha registrato 31,205 IOPS in lettura e 15,830 IOPS in scrittura.
Con una latenza media, l'ibrido ci ha fornito 3 ms in lettura e 8 ms in scrittura nella cache e 4 ms in lettura e 9 ms in scrittura fuori dalla cache. L'AF DR, d'altro canto, ci ha fornito 5.29 ms in lettura e 7.46 ms in scrittura nella cache e 5.78 ms e 11.47 ms in scrittura fuoriuscita dalla cache.
Conclusione
VMware VSAN 6.2 offre alle organizzazioni la possibilità di sfruttare la tecnologia flash in modi nuovi ed entusiasmanti, favorendo miglioramenti sia in termini di efficienza che di prestazioni. I punti salienti della nuova versione includono la codifica di cancellazione, il supporto RAID5, la deduplicazione e la compressione, che portano chiaramente a ottenere il massimo dal flash dal punto di vista della capacità. Sebbene i vantaggi della riduzione dei dati varieranno in base al carico di lavoro e alla configurazione, è ragionevole aspettarsi un aumento di capacità da 3 a 6 volte. Ciò significa sostanzialmente che un'unità da 1 TB relativamente conveniente è effettivamente in grado di fornire 3-6 TB. Questo vantaggio da solo rende la versione 6.2 un degno aggiornamento e offre a Flash un ottimo posto in cui eccellere.
Quando si passa alle prestazioni, la configurazione all-flash necessita di qualche sfumatura per essere spiegata correttamente. VSAN 6.2 non fornisce guadagni esponenziali rispetto alla configurazione ibrida che abbiamo testato in precedenza. Ci sono un paio di ragioni fondamentali per questo. Innanzitutto, VSAN è a thread singolo per gruppo di dischi, il che limita la sua capacità di sfruttare tutte le unità flash nel modo più efficace possibile. Si tratta di una decisione progettuale poiché l'accento di VMware è posto sulla riduzione al minimo del sovraccarico VSAN a livello di sistema; questa potrebbe essere l'area che VMware sceglierà di ribilanciare nelle versioni future. In secondo luogo, quando abilitiamo le funzionalità di riduzione dei dati, notiamo prestazioni inferiori sulla configurazione all-flash rispetto a quella ibrida. A prima vista questo potrebbe sembrare un problema, ma per chiunque abbia esperienza con la riduzione dei dati, c'è una massiccia penalizzazione delle prestazioni in ogni caso che abbiamo visto. Molte volte abbiamo assistito a un calo dei costi generali superiore all'80% con soluzioni HCI competitive. Questo contesto è importante; poiché VSAN all-flash con riduzione dei dati abilitata ha effettivamente fatto un ottimo lavoro in questo senso, eguagliando il punteggio VMmark di 18 riquadri di cui era capace la nostra vecchia configurazione ibrida. Inoltre, VMware indica che la maggior parte dei clienti che acquistano configurazioni all-flash utilizzano le funzionalità di riduzione dei dati abilitate, rendendo l'efficienza VSAN molto importante.
Attualmente la riduzione dei dati è un'impostazione tutto o niente, in cui si applica all'intero archivio dati; VMware fa questo per massimizzare l'efficacia della deduplica. Il problema delle risorse del server per la riduzione dei dati è controbilanciato dall'espansione della capacità, che in questo caso è un punto di forza fondamentale. Nella nostra configurazione a quattro nodi, 24 unità per server (che è molto comune per VSAN), ciò significa che è possibile utilizzare SSD più piccoli/meno per eguagliare o superare la capacità dell'HDD. Questo, ovviamente, si aggiunge a tutti gli altri vantaggi offerti dagli SSD, come un consumo energetico inferiore, esigenze di raffreddamento ridotte o tolleranze operative più ampie.
Per i test, abbiamo eseguito il nostro assortimento di test applicativi, comprese le prestazioni OLTP di MySQL e Microsoft SQL Server, nonché il benchmark di virtualizzazione VMmark di VMware e HCIbench. Con SQL Server, la versione all-flash ha ottenuto le migliori prestazioni con un punteggio complessivo di 12,472.8 TPS. Anche la soluzione all-flash (AF) con riduzione dei dati (AF DR) ha ottenuto buoni risultati con un punteggio complessivo di 11,969.1 TPS. Con la latenza di SQL Server, AF VSAN ha registrato la latenza complessiva più bassa con un punteggio complessivo di 53 ms, inferiore di circa il 30% rispetto alla versione ibrida. Non sorprende che AF DR VSAN abbia avuto una latenza molto più elevata con un totale di 261 ms. Con il nostro test SysBench, è interessante notare che l'AF ha funzionato leggermente meglio della versione ibrida (da 4,273 a 4,259 TPS, latenza media scalata da 60.1 ms a 60.3 ms e latenza nel caso peggiore da 126 ms a 131 ms). Con la riduzione dei dati abilitata, AF DR VSAN ha registrato un calo delle prestazioni ma ha comunque registrato transazioni scalate al secondo di 3,625, una latenza media scalata di 71 ms e una latenza nel caso peggiore di 212 ms.
Con VMmark e la riduzione dei dati abilitati, AF DR VSAN è stato in grado di raggiungere 18 riquadri (il precedente miglior sistema di riduzione dei dati raggiungeva solo 8 riquadri). Ciò rende AF DR VSAN l'array di storage con le prestazioni più elevate con riduzione dei dati nel nostro test VMmark. Il test finale che abbiamo esaminato è stato HCIbench che, sebbene non mostri le massime capacità di un sistema, ci fornisce una buona metrica per confrontare l'AF DR VSAN con il VSAN ibrido. Nel nostro test HCIbench 4k, l'AF DR VSAN ha sovraperformato la versione ibrida sia nei test in-cache che in quelli di spilling-out-of-cache, in particolare nelle letture. L'AF DR è stato in grado di raggiungere numeri di lettura di 4k fino a 1,1414 MB/s, 361,923 IOPS e una latenza media di 0.9 ms. Osservando i nostri test 8k 70/30, l'ibrido ha funzionato meglio in cache e l'AF DR ha funzionato notevolmente meglio una volta uscito dalla cache. Nei nostri test sequenziali da 32k, la VSAN ibrida ha ottenuto risultati migliori sia dentro che fuori dalla cache rispetto alla VSAN AF DR.
In questa recensione abbiamo effettuato molti confronti tra la nostra configurazione VSAN ibrida iniziale e una distribuzione all-flash. L'ibrido ha resistito bene ai test iniziali e anche oggi mostra ancora forza. Se i livelli di cache sono gli stessi in una configurazione ibrida e tutte le configurazioni flash e i working set rimangono all'interno della cache, le prestazioni dei due saranno relativamente simili. La configurazione all-flash beneficia tuttavia di tutte le nuove funzionalità della versione 6.2, oltre ai vantaggi generali offerti da flash. Inoltre, la pressione al ribasso sui prezzi degli SSD, combinata con la riduzione dei dati, potrebbe addirittura rendere le VSAN all-flash più convenienti per TB rispetto a quelle ibride.
Vantaggi
- La piattaforma dalle prestazioni più elevate con riduzione dei dati che abbiamo testato fino ad oggi
- VSAN 6.2 offre una suite di nuove funzionalità che sfruttano i vantaggi del flash
- Molto facile da configurare; comodo da gestire per gli amministratori di virtualizzazione
Svantaggi
- VSAN separa le unità per i livelli di cache e capacità; un'architettura a livello singolo per Flash potrebbe essere preziosa
- I gruppi di dischi a thread singolo all'interno di VSAN limitano il potenziale di miglioramento delle prestazioni
Conclusione
VMware VSAN 6.2 aggiunge una serie di funzionalità di efficienza dei dati alla piattaforma, consentendo alle implementazioni VSAN all flash di offrire una combinazione convincente di funzionalità, prestazioni e capacità, beneficiando al contempo di tutti i vantaggi periferici offerti dalla tecnologia flash.
Pagina del prodotto VMware VSAN
Iscriviti alla newsletter di StorageReview