Gli SSD NVMe stanno conquistando i data center, affermandosi rapidamente come la tecnologia di riferimento per le applicazioni mission-critical. L'interfaccia NVMe consente la libera esecuzione della memoria flash, superando i colli di bottiglia legacy delle interfacce SATA e SAS. La rimozione delle barriere improvvise introduce tuttavia nuove sfide architettoniche che non possono essere facilmente risolte con i tradizionali layout dei server di schede HBA/RAID. Intel ha affrontato questo problema con una soluzione semplificata per la gestione degli SSD NVMe nei server. Il RAID virtuale su CPU, o Intel VROC in breve, consente essenzialmente agli SSD di avere accesso diretto alle CPU, eliminando completamente la necessità di un HBA. Ciò semplifica notevolmente sia il percorso dei dati che i componenti necessari per ottenere il massimo dagli SSD NVMe nei server. Oltre al RAID di livello aziendale, Intel VROC include la funzionalità prevista richiesta dall'azienda, tra cui la gestione RAID di preavvio, il supporto hot plug e la gestione dei LED.
Gli SSD NVMe stanno conquistando i data center, affermandosi rapidamente come la tecnologia di riferimento per le applicazioni mission-critical. L'interfaccia NVMe consente la libera esecuzione della memoria flash, superando i colli di bottiglia legacy delle interfacce SATA e SAS. La rimozione delle barriere improvvise introduce tuttavia nuove sfide architettoniche che non possono essere facilmente risolte con i tradizionali layout dei server di schede HBA/RAID. Intel ha affrontato questo problema con una soluzione semplificata per la gestione degli SSD NVMe nei server. Il RAID virtuale su CPU, o Intel VROC in breve, consente essenzialmente agli SSD di avere accesso diretto alle CPU, eliminando completamente la necessità di un HBA. Ciò semplifica notevolmente sia il percorso dei dati che i componenti necessari per ottenere il massimo dagli SSD NVMe nei server. Oltre al RAID di livello aziendale, Intel VROC include la funzionalità prevista richiesta dall'azienda, tra cui la gestione RAID di preavvio, il supporto hot plug e la gestione dei LED.
Per comprendere meglio Intel VROC, è importante comprendere un'altra tecnologia denominata Intel Volume Management Device (Intel VMD). Compatibile con i più recenti processori scalabili Intel Xeon, Intel VMD è un controller integrato all'interno del complesso root PCIe della CPU. Il risultato netto è che Intel VMD abilita più o meno HBA virtuali per gli SSD NVMe collegati. Questo è importante perché Intel VMD offre funzionalità critiche di manutenzione delle unità semplificate senza sacrificare l'affidabilità. Grazie a Intel VMD, gli SSD NVMe possono essere sostituiti a caldo senza interruzione del servizio o riavvio. Intel VMD reindirizza gli eventi di inserimento e rimozione del bus PCIe ai driver compatibili con l'archiviazione RAID che gestiscono questi eventi e avviano una ricostruzione automatica. In caso di guasto, anche sapere quale unità rimuovere è fondamentale, il che può essere difficile nei data center con dozzine o centinaia di unità e pratiche di etichettatura degli alloggiamenti delle unità incoerenti dei fornitori. Intel VMD supporta la gestione LED NVMe, che è in linea con le specifiche di illuminazione dell'unità utilizzate da anni dalle unità SATA e SAS, semplificando l'identificazione e la manutenzione di un SSD quando necessario. Intel VMD è anche ampiamente supportato nel settore, VMware, ad esempio, supporta il driver Intel VMD NVMe in modo nativo nella versione VMware ESXi 6.7 che include il supporto per la gestione degli SSD NVMe in vSAN.
Intel VROC si basa su Intel VMD, portando in scena il RAID SSD NVMe. Attualmente, una singola CPU scalabile Xeon può supportare fino a 12 unità NVMe a collegamento diretto e fino a 6 array RAID. Un sistema a doppio processo supporterebbe rispettivamente 24 e 12. Una CPU potrebbe tuttavia sfruttare gli switch per supportare fino a 48 SSD in un sistema. Intel VROC supporta volumi di dati e volumi di avvio, qualcosa che è stato storicamente difficile da realizzare per le unità NVMe. Le impostazioni RAID sono configurabili tramite BIOS o CLI e Intel supporta la gestione in locale o in remoto tramite agente RESTful.
Intel VROC viene venduto come chiave fisica; sono disponibili tre SKU. Lo standard supporta RAID 0/1/10 con supporto SSD di terze parti. La licenza Premium aggiunge il supporto per RAID3. C'è anche una licenza Intel SSD Only, che, come suggerisce il nome, supporta solo unità Intel ma offre l'intera gamma di opzioni RAID.
Oltre alla licenza, agli SSD NVMe e alle CPU scalabili Xeon è necessario un server compatibile. Sebbene Intel VROC sia ampiamente supportato, alcuni fornitori di server preferiscono le proprie tecnologie basate su scheda per la gestione delle unità rispetto a questa alternativa più moderna. In questa recensione abbiamo collaborato con EchoStreams, che supporta Intel VROC su tutte le sue linee di server di archiviazione.
Per una scatola così piccola, il EchoStreams FlacheSAN1N10U-D5 è estremamente flessibile. Nella nostra configurazione, il server è dotato di due CPU Intel 8180M, 64 GB di RAM e otto CPU da 2 TB. SSD Intel DC P4510 NVMe. Il server offre tre slot PCIe 16 x3.0, consentendo agli utenti di massimizzare il pieno potenziale della capacità di archiviazione interna con un massimo di 160 TB di flash NVMe (10 SSD da 16 TB) e tre NIC Ethernet da 100 Gbps.
Il design dello chassis consente inoltre un layout simmetrico tra entrambe le CPU, gli SSD NVMe e le NIC in uscita. Essendo un'offerta whitebox, lo chassis può anche essere personalizzato per l'utente finale, supportando altre dimensioni SSD come U.15 da 7 mm e 2 mm, nonché SSD M.2 interni e Intel Optane. Infine, il server può essere configurato con un doppio alimentatore CA da 850 W oppure configurato per supportare alimentatori ad alta efficienza da 48 V CC. Date le CPU Intel di fascia alta nella nostra configurazione, gli alimentatori più grandi sono tornati utili.
Osservando dove FlacheSAN1N10U-D5 può aggiungere valore, EchoStreams indica le reti di distribuzione dei contenuti (CDN) come caso d'uso principale. Attualmente i clienti utilizzano questi nodi come dispositivi di memorizzazione nella cache nel data center o nelle edge location per fornire contenuti popolari agli utenti finali. Esistono anche diverse università che sfruttano la piattaforma per l'HPC e gli usi di ricerca in cui la potenza di calcolo e la velocità di archiviazione forniscono un vantaggio fondamentale nella risoluzione di problemi complessi. Oltre a questi scenari, il server funziona bene anche per il flusso di lavoro di post-produzione di contenuti multimediali e di intrattenimento e si abbina bene anche alle offerte di storage definito dal software che possono trarre vantaggio dallo storage NVMe e dalla rete ad alta velocità.
Specifiche EchoStreams FlacheSAN1N10U-UN
Fattore di forma | 1U |
CPU | Supporta il processore scalabile Intel Xeon LGA3647 dual socket |
chipset | Intel C622 |
RAM | DDR4 fino a 1.5 TB RDIMM/RDIMM/LRDIMM 2666/2400 MHz |
Slot DIMM | Fino a 16 |
Alloggiamenti per unità |
|
Interfaccia I / O |
|
Slot di espansione |
|
Backplane | 5 backplane NVMe a 2 alloggiamenti |
Sistemi operativi supportati |
|
Potenza |
|
Fisico |
|
Ambientali |
|
Usabilità e distribuzione
La scheda madre non ha una GUI elegante per la configurazione di Intel VROC, ma è sicuramente facile da usare. Per gli amministratori IT che potrebbero avere familiarità con l'utilizzo dei comandi mdadm da una console, Intel VROC automatizza gran parte del lavoro di backend per semplificare la configurazione. Sebbene non sia pieno di fronzoli, non sarà difficile da utilizzare per la maggior parte dei professionisti IT. Dalla schermata del BIOS gli utenti possono impostare i propri volumi RAID visualizzando i dischi fisici disponibili.
Successivamente, è possibile denominare il volume (volume0 in questo caso), selezionare il livello RAID e abilitare il RAID distribuito su entrambi i controller Intel VMD.
Una volta configurato il RAID, è possibile esaminare le azioni del volume come eliminare il volume RAID o renderlo avviabile.
Infine, gli utenti possono eseguire azioni sul disco come reimpostare su non RAID o rimuovere i dati RAID dai dischi.
Una volta che il sistema è stato installato e funzionante nel nostro ambiente CentOS 7.4, la configurazione dei volumi RAID era pronta e in attesa. Per i volumi RAID5/10 puoi controllare mdstat per l'avanzamento dell'inizializzazione in background o modificare manualmente l'intero gruppo RAID, se lo desideri. La configurazione a livello di BIOS elimina gran parte del lavoro necessario per far funzionare il RAID, ma non lo rimuove o lo sostituisce per gli utenti che desiderano quel livello extra di personalizzazione.
Performance
Analisi del carico di lavoro VDBench
Quando si tratta di effettuare benchmark sugli array di storage, il test delle applicazioni è la soluzione migliore, mentre il test sintetico viene al secondo posto. Pur non essendo una rappresentazione perfetta dei carichi di lavoro effettivi, i test sintetici aiutano a definire i dispositivi di storage con un fattore di ripetibilità che semplifica il confronto tra soluzioni concorrenti. Questi carichi di lavoro offrono una gamma di profili di test diversi che vanno dai test "quattro angoli", test comuni sulle dimensioni di trasferimento del database, nonché acquisizioni di tracce da diversi ambienti VDI. Tutti questi test sfruttano il comune generatore di carichi di lavoro vdBench, con un motore di scripting per automatizzare e acquisire risultati su un ampio cluster di test di calcolo. Ciò ci consente di ripetere gli stessi carichi di lavoro su un'ampia gamma di dispositivi di storage, inclusi array flash e singoli dispositivi di storage.
Profili:
- Lettura casuale 4K: 100% di lettura, 128 thread, 0-120% irate
- Scrittura casuale 4K: scrittura al 100%, 64 thread, 0-120% irate
- Lettura sequenziale 64K: lettura al 100%, 16 thread, 0-120% irate
- Scrittura sequenziale 64K: scrittura al 100%, 8 thread, 0-120% irate
- Database sintetici: SQL e Oracle
- Clonazione completa VDI e tracce di clonazione collegata
Per questa serie di test VDBench eseguiremo i nostri normali test ma invece di un dispositivo (ad esempio SSD, server o array), eseguiremo più configurazioni bilanciate su entrambe le CPU:
- 8 unità in JBOD
- Due gruppi di quattro SSD in RAID0
- Due gruppi di quattro SSD in RAID5
- Due gruppi di quattro SSD in RAID10
I dati presentati di seguito rappresentano l'aggregato degli 8 SSD utilizzati in ciascuna configurazione. Questi dati hanno semplicemente lo scopo di evidenziare ciò di cui è capace questa piattaforma nella varietà di configurazioni supportate da Intel VROC. Va notato che RAID5 registra prestazioni di scrittura inferiori in questa recensione a causa della complessità dei calcoli e degli aggiornamenti della parità ed è previsto in base ai confronti dei livelli RAID.
Per prestazioni casuali di picco 4K, tutti i gruppi RAID sono riusciti a rimanere sotto 1 ms per la latenza (in effetti tutti i gruppi erano sotto 210 μs). Tutti i gruppi hanno terminato tra 2.5 milioni e 3 milioni di IOPS, con la prestazione migliore andata al gruppo JBOD con 2,944,335 IOPS e una latenza di 163μs.
La scrittura casuale 4K non ha riscontrato la stessa unità con i diversi gruppi RAID. Il gruppo RAID5 ha avuto le prestazioni più basse con un picco di 21,921 IOPS e una latenza di 936.7 ms. Gli altri gruppi RAID hanno ottenuto risultati migliori, con il gruppo RAID0 che ha raggiunto un picco di 1,879,180 IOPS con una latenza di 1.35 ms.
Passando ai carichi di lavoro sequenziali, la lettura a 64K ha mostrato che tutti i gruppi RAID iniziano bene con una latenza inferiore al millisecondo e solo il JBOD supera 1 ms intorno a 330 IOPS o 22 GB/s e raggiunge un picco di 363,203 IOPS o 22.7 GB/s con una latenza di soli 1.4 SM.
Anche in questo caso con le scritture i gruppi RAID si disgregano offrendo prestazioni molto diverse. Ancora una volta il gruppo RAID5 si è esaurito a circa 25 IOPS con una latenza di 4.3 ms e RAID0 è arrivato a 124,104 IOPS con una latenza di 958 μs.
Successivamente ci sono i nostri carichi di lavoro SQL. Tutti i gruppi RAID hanno registrato prestazioni di latenza inferiori al millisecondo fino a circa 1.4 milioni di IOPS. Qui il gruppo RAID5 ha registrato un picco di latenza e un calo di prestazioni. Gli altri tre gruppi hanno continuato sotto 1 ms finché non hanno superato i 2 milioni di IOPS. I numeri più alti vengono ancora una volta assegnati al gruppo RAID0 con prestazioni di picco di 2,519,727 IOPS con una latenza di 1.45 ms.
Per SQL 90-10 abbiamo riscontrato un profilo di latenza migliore per il gruppo RAID5 con un picco di 302μs ma le prestazioni di picco sono state di soli 436,439 IOPS. Gli altri gruppi hanno superato 1.5 milioni di IOPS prima di superare 1 ms, con i gruppi JBOD e RAID10 che hanno raggiunto il picco poco dopo. Il gruppo RAID0 ha raggiunto il picco di 2,135,362 IOPS con una latenza di 1.54 ms.
Ancora una volta in SQL 80-20, il gruppo RAID5 ha avuto una latenza inferiore al millisecondo con prestazioni inferiori rispetto agli altri, da 345μs a 212,980 IOPS. Gli altri gruppi hanno superato 1 milione di IOPS al di sotto di 1 ms con JBOD e RAID10 che hanno raggiunto nuovamente il picco poco dopo e RAID0 che ha raggiunto il picco di 1,753,622 IOPS con una latenza di 1.7 ms.
I nostri benchmark Oracle, non sorprende che ci abbiano dato un posizionamento simile a quello sopra. Il gruppo RAID5 ha raggiunto per primo il picco di 61,695 IOPS con una latenza di 153μs. Le altre unità hanno raggiunto insieme circa 780 IOPS in meno di 1 ms prima che il RAID10 superasse e raggiungesse il picco (954,567 IOPS con una latenza di 2.63 ms), seguito dal JBOD (con un picco di 1,274,172 IOPS con una latenza di 4.2 ms) e infine il gruppo RAID0 con un picco di 1,472,338 IOPS con una latenza di 2.18ms.
Oracle 90-10 ha registrato per primo il picco del gruppo RAID5 con 406,693 IOPS e una latenza di 255μs. Gli altri gruppi hanno avuto una latenza inferiore al millisecondo fino a oltre 1.5 milioni di IOPS e hanno raggiunto il picco nello stesso modo che abbiamo visto: RAID10, JBOD e RAID0 con il primo posto di 2,110,799 IOPS e una latenza di 1.55 ms.
Per Oracle 80-20 il gruppo RAID5 ha raggiunto il picco di 213,479 IOPS e una latenza di 327μs. Gli altri gruppi sono riusciti a superare 1 milione di IOPS prima di raggiungere il picco con RAID0, raggiungendo 1.65 milioni di IOPS in meno di 1 ms e raggiungendo il picco di 1,757,722 IOPS con una latenza di 1.63 ms.
Successivamente, siamo passati al nostro test clone VDI, Completo e Collegato. Qui continuiamo a vedere lo stesso modello familiare di posizionamento per i diversi gruppi RAID: RAID5, RAID10, JBOD e RAID0. Per l'avvio VDI Full Clone, il gruppo RAID5 ha raggiunto il picco di 288,613 IOPS con una latenza di 182μs. Gli altri gruppi sono riusciti a raggiungere quasi 1.2 milioni di IOPS con una latenza inferiore al millisecondo, prima che il gruppo RAID10 raggiungesse 1,217,620 IOPS con una latenza di 2.65 ms, seguito dal gruppo JBOD con 1,314,075 IOPS con una latenza di 4.19 ms e quindi dal gruppo RAID0 con 1,400,765 IOPS con una latenza di 2.22 ms.
Con l'accesso iniziale VDI FC, il gruppo RAID5 ha registrato un periodo molto breve con un picco di 13,296 IOPS e 286μs di latenza. Le altre unità sono riuscite a raggiungere 175 IOPS prima di superare 1 ms. Il gruppo RAID0 è arrivato fino a 390 IOPS con una latenza inferiore al millisecondo e ha raggiunto il picco di 429,692 IOPS con una latenza di 4.98 ms.
Con l'accesso VDI FC Monday il gruppo RAID5 ha raggiunto il picco di 15 IOPS con 262μs. Gli altri gruppi RAID hanno superato i 150K prima di superare 1 ms con il gruppo RAID10 e JBOD che hanno riscontrato una latenza piuttosto elevata rispettivamente di 12.8 ms e 11.7 ms, sebbene le prestazioni siano state impressionanti, 234,431 IOPS e 341,483 IOPS. Il gruppo RAID0 ha ottenuto le migliori prestazioni complessive con 435,641 IOPS e una latenza di 5.67 ms.
Passando ai nostri test VDI Linked Clone vediamo prestazioni molto più elevate da tutti i gruppi nel nostro avvio con il gruppo RAID5 con picco a 543,680 IOPS e latenza di 407μs, RAID10 con picco a 782,224 con latenza di 4.76 ms, JBOD con picco a 822,555 IOPS con latenza di 11.52 ms e RAID0 con picco a 820,998 IOPS con latenza di 4.39 ms.
Con VDI LC Initial Login vediamo prestazioni di picco che vanno da 10,998 IOPS con 312μs di latenza dal RAID5 a 276,814 IOPS con 7.88ms di latenza per il RAID0.
Infine con VDI LC Monday Login continuiamo a vedere lo schema di RAID5 che termina prima (11,591 IOPS a 315μs) seguito da RAID10 (circa 155 IOPS a 1.2 ms di picco) quindi JBOD (circa 238 IOPS a 15.8 ms di picco) e infine RAID0 ( 279,332 IOPS a 8.06 ms).
conclusione
Osservando le prestazioni di Intel VROC su questa piattaforma EchoStreams 1U, abbiamo esaminato quattro diversi gruppi di test, ciascuno dei quali ha utilizzato dati aggregati da 8 SSD Intel P4510 NVMe. È facile dichiarare RAID0 come il "vincitore" del gruppo, ma è per ragioni previste dovute al funzionamento di RAID. Osservando i risultati della performance dal basso verso l'alto; come notato all'inizio, RAID5 presenta una pesante penalizzazione in termini di ridondanza dei dati con calcoli di parità e ciò si riflette chiaramente nei dati. RAID10 utilizza il mirroring, quindi la penalità di ridondanza è molto inferiore e quindi i risultati fanno un grande balzo in avanti rispetto a RAID5. Questo gruppo è seguito da JBOD, con prestazioni pass-thru aggregate. RAID0 è in testa alla classifica poiché è focalizzato esclusivamente sulle prestazioni e sfrutta il fatto che le unità lavorano in concerto tramite lo striping dei dati, ma sacrifica la resilienza dei dati. Tutti i dati, dal punto di vista della funzionalità RAID, supportano il fatto che Intel VROC è ben implementato e fornisce risultati coerenti e attesi su una piattaforma ben progettata.
Invece di esaminare ogni risultato in dettaglio (con quattro gruppi si genereranno 64 risultati in totale), esamineremo invece alcuni dei punti salienti. Nel nostro test 4K abbiamo visto il gruppo JBOD raggiungere quasi 3 milioni di IOPS con una latenza inferiore al millisecondo per le letture e RAID0 raggiungere 1.9 milioni di IOPS con una latenza di soli 1.35 ms. Per il sequenziale a 64K abbiamo visto numeri fino a 22.7 GB/s in lettura e 7.8 GB/s in scrittura. I nostri test SQL hanno rilevato 2.5 milioni di IOPS, 2.1 milioni di IOPS per 90-10 e 1.75 milioni di IOPS per 80-20, tutti con una latenza inferiore a 1.7 ms. Oracle ha registrato 1.47 milioni di IOPS, 2.1 milioni di IOPS per 90-10 e 1.76 milioni di IOPS per 80-20, tutti con una latenza di 2.18 ms o inferiore. Il nostro test VDI ha mostrato un avvio FC di 1.4 milioni di IOPS, un accesso iniziale FC di 430 IOPS e un accesso VDI FC lunedì di 436 IOPS e un avvio LC di 821 IOPS, un accesso iniziale LC di 277 IOPS e un accesso lunedì LC di 279 IOPS.
In definitiva, ciò che Intel VROC offre ai fornitori di sistemi come EchoStreams è un modo semplificato di fornire RAID con SSD NVMe. Il risultato è che EchoStreams è in grado di fornire throughput e latenza eccellenti con meno complessità e costi. Inoltre, grazie alle funzionalità aggiuntive di Intel VMD, i clienti EchoStreams ottengono una migliore manutenibilità del sistema con funzionalità come hot swap SSD NVMe, supporto drive light NVMe e RAID avviabile con configurazione di preavvio. Come notato, i casi d’uso sono vari, ma chiaramente esiste un enorme potenziale per i CDN e altri che possono trarre vantaggio dal RAID di livello aziendale attraverso le interfacce di archiviazione e di rete più veloci ampiamente disponibili.
Pagina del prodotto EchoStreams FlacheSAN1N10U-D5
Iscriviti alla newsletter di StorageReview