Ne abbiamo parlato e ti ha preso in giro con questoe ora stiamo finalmente fornendo VMware vSAN con Intel Optane Review. Questa segnerà la terza revisione importante di vSAN che inizierà con a revisione in più parti di un vSAN ibrido 6.0 seguito da un revisione all-flash di vSAN 6.2. In questo giro, invece di sfruttare il nostro cluster Dell PowerEdge R730xd, stiamo utilizzando il server 2029U-TN24R4T+ 2U, 24 bay di Supermicro con vSAN 6.7. Per l'archiviazione utilizziamo una configurazione interamente NVMe con SSD Intel Optane P4800X (375 GB) per il livello di scrittura e SSD Intel P4500 (2 TB) per il livello di capacità.
Ne abbiamo parlato e ti ha preso in giro con questoe ora stiamo finalmente fornendo VMware vSAN con Intel Optane Review. Questa segnerà la terza revisione importante di vSAN che inizierà con a revisione in più parti di un vSAN ibrido 6.0 seguito da un revisione all-flash di vSAN 6.2. In questo giro, invece di sfruttare il nostro cluster Dell PowerEdge R730xd, stiamo utilizzando il server 2029U-TN24R4T+ 2U, 24 bay di Supermicro con vSAN 6.7. Per l'archiviazione utilizziamo una configurazione interamente NVMe con SSD Intel Optane P4800X (375 GB) per il livello di scrittura e SSD Intel P4500 (2 TB) per il livello di capacità.
Per coloro che non hanno familiarità con vSAN, è l'infrastruttura iperconvergente di VMware ottimizzata per vSphere che si orienta allo storage. In altre parole, vSAN rappresenta un passo avanti negli elementi costitutivi del data center definiti dal software che mira a semplificare lo storage e la gestione dello storage offrendo allo stesso tempo prestazioni migliori. vSAN viene generalmente venduto tramite un programma di certificazione noto come VMware vSAN ReadyNodes che è una combinazione di hardware certificato combinato con software VMware. La maggior parte dei principali fornitori di server offre configurazioni ReadyNode e alcuni offrono anche vSAN come dispositivo.
Simile all'idea ReadyNode sono le soluzioni Select di Intel. Le soluzioni Intel Select sono stack hardware e software verificati che seguono i requisiti stabiliti da Intel. Le soluzioni fornite sul mercato dai principali fornitori di server devono essere in grado di replicare o superare le prestazioni di riferimento delineate da Intel e devono disporre di guide di implementazione dettagliate per i clienti. La configurazione che utilizziamo per questa recensione rientra in questa categoria, nello specifico si tratta di una soluzione Intel Select per VMware vSAN. Come suggerisce il nome, la soluzione è progettata specificamente per gli ambienti VMware.
La soluzione Intel Select per VMware vSAN è disponibile in due configurazioni: una "Base" e una "Plus". La nostra configurazione si trova da qualche parte nel mezzo di queste configurazioni; si tratta fondamentalmente di una configurazione di base con CPU aggiornate. Con gli SSD Optane per il livello di scrittura, i nostri sistemi sono progettati per soddisfare le esigenze di latenza delle applicazioni business-critical.
Specifiche Supermicro 2029U-TN24R4T+:
- Server Supermicro 2029U-TN24R4T+ (x4)
- CPU: 2 processori Intel Xeon Gold 6152, 2.10 GHz, 22 core
- Memoria: 384 GB di RAM (12 DIMM DDR32 da 2,666 GB a 4 MHz)
- Gruppi di dischi vSAN, 2 per nodo:
- Livello cache vSAN: 2 SSD Intel Optane SSD DC P375X serie NVMe da 4800 GB
- Livello di capacità vSAN: 4 SSD NVMe Intel DC P2 serie da 4500 TB
- Networking:
- Adattatore di rete convergente Ethernet Intel X710 10/40 GbE (collegamento dedicato per vSAN, vMotion/traffico VM/gestione suddiviso sulla propria VLAN).
- Performance
- 4KB casuali, profondità coda 16, R/W: fino a 550/500 IOPS
- 4KB casuali, profondità coda 16, misto 70/30 R/W: fino a 500 IOPS
- DWPD: 30
- Performance
- Lettura sequenziale: 3200 MB/s
- Scrittura sequenziale: 1050MB / s
- Lettura 4K casuale: 490,000 IOPS
- Scrittura 4K casuale: 38,000 IOPS
- DWPD 0.75 casuale; 4.62 sequenziale
Analisi del carico di lavoro dell'applicazione
I primi parametri di riferimento sono costituiti da Prestazioni MySQL OLTP tramite SysBench che a Prestazioni OLTP di Microsoft SQL Server con un carico di lavoro TPC-C simulato.
Ogni VM SQL Server è configurata con due vDisk, uno da 100 GB per l'avvio e uno da 500 GB per il database e i file di registro. Dal punto di vista delle risorse di sistema, abbiamo configurato ciascuna VM con 16 vCPU, 64 GB di DRAM e abbiamo sfruttato il controller SCSI SAS LSI Logic. Questi test sono progettati per monitorare le prestazioni di un'applicazione sensibile alla latenza sul cluster con un carico di elaborazione e archiviazione moderato, ma non eccessivo.
Configurazione di test di SQL Server (per VM)
- Di Windows Server 2012 R2
- Impronta di archiviazione: 600 GB allocati, 500 GB utilizzati
- SQL Server 2014
- Dimensioni del database: scala 1,500
- Carico del client virtuale: 15,000
- Memoria RAM: 48 GB
- Durata della prova: 3 ore
- 2.5 ore di precondizionamento
- Periodo di campionamento di 30 minuti
Nel test TPC-C di SQL Server su piattaforme iperconvergenti, esaminiamo il bilanciamento del carico di lavoro nel cluster in modalità ibrida, modalità all-flash (AF) e riduzione dei dati all-flash (AF DR). La modalità AF per Optane, non sorprende, ha funzionato leggermente meglio con un punteggio complessivo di 12,605 TPS con VM individuali comprese tra 3,148.56 TPS e 3,152.66 TPS. Nel complesso, questo risultato è leggermente migliore rispetto alla versione non Optane di vSAN che aveva un punteggio complessivo di 12,472 TPS. Con DR attivato, abbiamo visto Optane raggiungere un punteggio complessivo di 12,604 TPS (solo un TPS in meno rispetto a DR disattivato) con VM individuali comprese tra 3,148.7 TPS e 3,153.5 TPS. Si è trattato di un salto piuttosto notevole rispetto alla versione non Optane, con un punteggio complessivo di DR di 11,969 TPS. Vale la pena notare qui che le CPU Gold sono probabilmente un fattore limitante e con le CPU Platinum c'è più vantaggio da ottenere.
Per il test TPC-C di SQL Server, la variabile a cui prestiamo maggiore attenzione è la latenza media. Piccole lacune nelle prestazioni transazionali non mostreranno la storia completa. Nel nostro test di latenza media, AF Optane ha ottenuto un punteggio complessivo di soli 16.5 ms con singole VM che vanno da 14 ms a 21 ms. Con DR sulla versione Optane è passato solo a 17 ms per l'aggregato con una latenza compresa tra 13 ms e 21 ms per le singole VM. Si tratta di un notevole miglioramento rispetto al vSAN non Optane con un punteggio complessivo di 52.5 ms senza DR e 261 ms con DR attivato.
Prestazioni del Sysbench
Ogni VM Sysbench è configurata con tre vDisk: uno per l'avvio (~92 GB), uno con il database predefinito (~447 GB) e il terzo per il database in fase di test (400 GB). Dal punto di vista delle risorse di sistema, abbiamo configurato ciascuna VM con 16 vCPU, 64 GB di DRAM e abbiamo sfruttato il controller SCSI SAS LSI Logic.
Configurazione test Sysbench (per VM)
- CentOS 6.3 a 64 bit
- Impronta di archiviazione: 1 TB, 800 GB utilizzati
- Percona XtraDB 5.5.30-rel30.1
- Tabelle del database: 100
- Dimensione del database: 10,000,000
- Discussioni del database: 32
- Memoria RAM: 24 GB
- Durata della prova: 12 ore
- 6 ore di precondizionamento di 32 thread
- 1 ora 32 thread
- 1 ora 16 thread
- 1 ora 8 thread
- 1 ora 4 thread
- 1 ora 2 thread
Con Sysbench OLTP esaminiamo la configurazione 8VM per ciascuno. L'Optane AF ha ottenuto un punteggio complessivo di 10,699 TPS, più del doppio dei 4,273 TPS della versione non Optane. Con DR attivato, Optane ha raggiunto 8,668 TPS rispetto al non Optane con 3,625 TPS di DR.
Per quanto riguarda la latenza media di Sysbench, vSAN basato su Optane è stato davvero in grado di brillare con punteggi complessivi di 23.95 ms e 29.62 ms con DR attivato. Questo valore viene confrontato con i 60.05 ms e i 71.05 ms dei modelli non Optane con DR attivato. In entrambi i casi l'Optane aveva meno della metà della latenza.
La latenza media del 99° percentile ha dimostrato ancora una volta che il vSAN basato su Optane è notevolmente più veloce con punteggi complessivi di 42.9 ms e 55.63 ms con DR attivato rispetto ai 126.02 ms del sistema non Optane e a 212.42 ms con DR attivato.
Analisi del carico di lavoro VDBench
Quando si tratta di confrontare gli array di archiviazione, i test delle applicazioni sono i migliori e i test sintetici vengono al secondo posto. Pur non essendo una rappresentazione perfetta dei carichi di lavoro effettivi, i test sintetici aiutano a definire i dispositivi di storage con un fattore di ripetibilità che semplifica il confronto tra soluzioni concorrenti. Questi carichi di lavoro offrono una gamma di profili di test diversi che vanno dai test "quattro angoli", test comuni sulle dimensioni di trasferimento del database, nonché acquisizioni di tracce da diversi ambienti VDI. Tutti questi test sfruttano il comune generatore di carichi di lavoro vdBench, con un motore di scripting per automatizzare e acquisire risultati su un ampio cluster di test di calcolo. Ciò ci consente di ripetere gli stessi carichi di lavoro su un'ampia gamma di dispositivi di storage, inclusi array flash e singoli dispositivi di storage.
Profili:
- Lettura casuale 4K: lettura al 100%, 128 thread, 0-120% irate
- Scrittura casuale 4K: scrittura al 100%, 64 thread, 0-120% irate
- Lettura sequenziale 64K: lettura al 100%, 16 thread, 0-120% irate
- Scrittura sequenziale a 64K: scrittura al 100%, 8 thread, 0-120% irate
- Database sintetici: SQL e Oracle
- Clonazione completa VDI e tracce di clonazione collegata
Per il test VDBench esamineremo solo la versione Optane Supermicro di vSAN e valuteremo se il DR è attivo (da qui in poi denominato DR) o disattivato (da qui in poi denominato Raw). Nel nostro primo test per la lettura casuale di picco a 4K, il Raw ha avuto una latenza inferiore al millisecondo fino a circa 440 IOPS e ha raggiunto il picco a 521,599 IOPS con una latenza di 4.65 ms. Il DR è iniziato poco meno di 1 ms prima di superare e ha raggiunto il picco di 406,322 IOPS con una latenza di 7.32 ms.
Con la scrittura casuale 4K, il Raw ha percorso la linea di 1 ms ma è rimasto sotto di essa fino a circa 150 IOPS e ha raggiunto il picco a 202,081 IOPS con una latenza di 8.4 ms. Il DR è arrivato a circa 114 IOPS con una latenza inferiore al millisecondo e ha raggiunto il picco a 183,947 IOPS con una latenza di 1.43 ms prima di crollare bruscamente nelle prestazioni e aumentare la latenza.
Successivamente esamineremo i carichi di lavoro sequenziali da 64K. In lettura, il Raw ha avuto prestazioni di latenza inferiori al millisecondo fino a circa 54K IOPS o 3.5 GB/s e ha raggiunto il picco a 85,319 IOPS o 5.33 GB/s con una latenza di 4.69 ms. Il DR è iniziato sopra 1 ms e ha raggiunto il picco di 73,583 IOPS o 4.6 GB/s con una latenza di 4.23 ms.
Per la scrittura a 64K, il Raw è arrivato solo a circa 12K IOPS prima di superare 1 ms, raggiungendo il picco a 40,869 IOPS o 2.55 GB/s con una latenza di 5.58 ms. DR ha avuto prestazioni di latenza inferiori al millisecondo durante l'intero processo, ma ha raggiunto il picco di soli 7,303 IOPS o 456 MB/s con una latenza di 623 μs.
Passando ai nostri carichi di lavoro SQL, il Raw ha avuto una latenza inferiore al millisecondo fino a circa 330 IOPS e ha raggiunto un picco di 385,159 IOPS con una latenza di 2.34 ms. Il DR è rimasto al di sopra di 1 ms praticamente per tutto il tempo con un picco di 321,504 IOPS con una latenza di 3.02 ms.
Per SQL 90-10, il Raw è arrivato a circa 300 IOPS prima di superare 1 ms e raggiungere il picco di 363,550 IOPS con una latenza di 2.52. Il DR ha raggiunto il picco di 299,132 IOPS con una latenza di 3.26 ms.
Il nostro test SQL 80-20 ha visto il Raw eseguire oltre 277 IOPS in meno di 1 ms e raggiungere un picco di 332,949 IOPS con una latenza di 2.79 ms. Il DR ha raggiunto il picco di 285,010 IOPS con una latenza di 3.42 ms.
Il prossimo passo sono i nostri carichi di lavoro Oracle. Il Raw ha avuto una latenza inferiore al millisecondo fino a circa 262 IOPS e ha raggiunto il picco a 323,706 IOPS con una latenza di 3.27 ms. Il DR ha raggiunto il picco di 211,993 IOPS con una latenza di 2.07 ms prima di scendere nuovamente in termini di prestazioni e aumentare la latenza.
Per Oracle 90-10, il Raw ha registrato prestazioni con latenza inferiore al millisecondo fino a circa 315 IOPS e ha raggiunto il picco a 354,590 IOPS con una latenza di 1.67 ms. Il DR ha raggiunto il picco di 279,356 IOPS con una latenza di 2.24 ms.
Il test Oracle 80-20 ha visto il Raw funzionare sotto 1 ms fino a circa 273 IOPS e raggiungere il picco a 322,616 IOPS con una latenza di 1.85 ms. Il DR è stato in grado di raggiungere un picco di 263,425 IOPS e una latenza di 2.36 ms.
Successivamente, siamo passati al nostro test clone VDI, Completo e Collegato. Per VDI Full Clone Boot, il Raw ha avuto prestazioni di latenza inferiori al millisecondo fino a circa 240 IOPS, raggiungendo il picco a 293,335 IOPS e una latenza di 3.3 ms. Il DR ha raggiunto il picco di 181,527 IOPS e una latenza di 5.31 ms prima di scendere.
VDI FC Initial Login ha fatto partire il Raw in circa 1 ms e lo ha superato rapidamente raggiungendo il picco a 153,513 IOPS con una latenza di 5.6 ms prima di un leggero calo. Il DR ha raggiunto il picco in precedenza a circa 68 IOPS e una latenza di 5.3 ms prima di diminuire le prestazioni e aumentare la latenza.
Con VDI FC Monday Login, il Raw ha avuto una latenza inferiore al millisecondo fino a circa 58 IOPS e ha raggiunto il picco a 152,660 IOPS con una latenza di 3.14 ms. Il DR ha avuto una latenza di picco migliore (1.64 ms), ma ha raggiunto il picco solo con una prestazione di 64,201 IOPS.
Per VDI LC Boot, il Raw ha avuto una latenza inferiore al millisecondo fino a circa 170 IOPS e ha raggiunto il picco a 209,676 IOPS con una latenza di 2.21 ms. Con il DR, il picco è stato di 119,036 IOPS e una latenza di 3.99 ms.
Passando all'accesso iniziale VDI LC, il Raw è rimasto sotto 1 ms fino a 29 IOPS e ha raggiunto il picco a 92,951 IOPS con una latenza di 2.62 ms. Per il DR ha raggiunto il picco a poco meno di 64 IOPS con una latenza di circa 2.3 ms prima di scendere.
Infine, guardando VDI LC Monday Login, il Raw è arrivato fino a circa 35 IOPS prima di superare 1 ms e raggiungere il picco a 101,997 IOPS con una latenza di 4.65 ms. Con DR, il picco è stato di circa 47 IOPS con una latenza di 1.82 ms prima che le prestazioni diminuissero.
Conclusione
La soluzione di storage iperconvergente di VMware è disponibile in molte forme e forme; questa particolare iterazione utilizza quattro server Supermicro 2029U-TN24R4T+ per il calcolo. Per lo storage, questa versione di vSAN sfrutta sia Intel Optane sotto forma di SSD Intel Optane P4800X sia lo storage NVME sotto forma di SSD Intel P4500. Questa particolare build fa parte delle nuove soluzioni Select di Intel, in particolare delle soluzioni Intel Select per VMware vSAN. Può essere pensato come un vSAN ReadyNode certificato sia da VMware che da Intel per raggiungere i parametri prestazionali necessari.
Per quanto riguarda le prestazioni, nella nostra analisi del carico di lavoro delle applicazioni abbiamo confrontato la versione Optane di vSAN con la nostra versione all-flash di vSAN precedentemente testata su dispositivi Dell/Toshiba. Per SQL Sever, la configurazione Optane aveva punteggi quasi identici con la riduzione dei dati (DR) attivata e disattivata, un punteggio aggregato di 12,605 TPS senza DR e 12,604 TPS con DR. Ciò segna un salto abbastanza ampio rispetto alla versione all-flash, non Optane con DR attivato (11,969 TPS). Per quanto riguarda la latenza, la versione Optane ha mostrato un drastico miglioramento con punteggi complessivi di soli 16.5 ms senza DR e di soli 17 ms con DR attivato, meno della metà della latenza della versione SAS all-flash su vSAN 6.2. Con Sysbench, la versione Optane di vSAN aveva più del doppio del TPS della versione all-flash con punteggi complessivi di 10,699 TPS Raw e 8,668 TPS con DR attivato. Questa tendenza continua con la latenza e la latenza dello scenario peggiore, in entrambi i casi inferiore alla metà con punteggi aggregati di 24 ms e 30 ms con DR per la media e 60 ms e 71 ms con DR per il caso peggiore.
Per il nostro VDBench, Optane vSAN ha avuto diversi punti salienti per le prestazioni Raw, tra cui lettura 4K di 522 IOPS, scrittura 4K di 202 IOPS, lettura 64K di 5.33 GB/s e scrittura 64K di 2.55 GB/s. Con DR attivato, abbiamo visto vSAN raggiungere 406 IOPS in lettura 4K, 184 IOPS in scrittura (seguiti da un netto calo), 4.6 GB/s in lettura su 64 KB e solo 456 MB/s in scrittura su 64 KB, ma con una latenza inferiore a 1 ms. vSAN ha continuato con ottime prestazioni in SQL, raggiungendo 385 IOPS, 364 IOPS nel periodo 90-10 e 333 IOPS nel periodo 80-20, mentre il DR ha raggiunto 322 IOPS, 299 IOPS nel periodo 90-10 e 285 IOPS nel periodo 80-20. In Oracle, il Raw ha registrato prestazioni abbastanza elevate con 324 IOPS, 355 IOPS nel 90-10 e 323 IOPS nel 80-20. Il DR è stato forte anche in Oracle con picchi di 212 IOPS (prima di diminuire), 279 IOPS nel periodo 90-10 e 263 IOPS nel periodo 80-20.
L'inclusione degli SSD Optane ha chiaramente un grande impatto sulle prestazioni di scrittura per vSAN. Ciò anche considerando che le unità misurano solo 375 GB e vSAN supporta una capacità di 600 GB per le unità del livello di scrittura. Quindi è possibile che potremmo ottenere un po' più di prestazioni di scrittura avendo unità più grandi. C'è anche un bel po' di potenziale positivo per queste configurazioni Intel, poiché sono qualificate interconnessioni più veloci e vengono utilizzate configurazioni RAM e CPU più aggressive come nelle opzioni Plus. Intel dispone ora anche di unità più veloci/migliori per il livello di lettura; il P4510 è stato un miglioramento sostanziale rispetto al P4500. Il punto è che, piuttosto che prendere questi dati come il meglio che Optane può fare, questi dati riguardano più l'impostazione della linea di base per configurazioni di server di fascia media che hanno molto di più da dare, se l'occasione lo richiede. È anche importante considerare che vSAN è ben posizionata per continuare a trarre vantaggio dalle nuove tecnologie di storage e server non appena arrivano sul mercato, cosa che è molto più difficile da realizzare per i fornitori di dispositivi tradizionali.
Tuttavia, il punto è chiaramente che con la maturazione di vSAN, VMware è stata intelligente nel posizionarsi in prima linea nelle tecnologie emergenti come gli SSD Intel Optane. Ciò offre a vSAN un vantaggio significativo in termini di prestazioni che possono assumere nel mercato dell'HCI. Sebbene molte soluzioni HCI siano felici di soddisfare le esigenze dei casi d'uso ROBO con profili prestazionali moderati, vSAN continua a cercare i migliori partner per creare soluzioni altrettanto felici all'edge in quanto gettano le basi per ciò che i data center di prossima generazione assomigliano al mondo SDDC. I cluster vSAN basati su Optane sono estremamente adatti per questi ultimi, offrendo la migliore latenza di scrittura possibile per tutti i carichi di lavoro delle applicazioni.
Iscriviti alla newsletter di StorageReview