L'array di archiviazione condiviso Mangstor NX6325 NVMe Over Fabrics (NVMf) offre fino a 21.6 TB di spazio di archiviazione flash in un server HP DL380 2U. Come il NX6320 che abbiamo recensito all'inizio di quest'anno, l'NX6325 aggrega le unità NVMe della scheda aggiuntiva (AIC) di Mangstor e le condivide sulla rete. Ciò consente alle applicazioni sensibili alla latenza di sfruttare tutti i grandi vantaggi dello storage NVMe, senza la necessità di avere un AIC all'interno di ogni server. Se abbinato allo switch Mellanox SN2700 100GbE e a ConnectX4 (Ethernet o InfiniBand), l'NX6325 ha capacità impressionanti, offrendo prestazioni di lettura segnalate di 12 GB/s e di scrittura di 9 GB/s su un singolo array.
L'array di archiviazione condiviso Mangstor NX6325 NVMe Over Fabrics (NVMf) offre fino a 21.6 TB di spazio di archiviazione flash in un server HP DL380 2U. Come il NX6320 che abbiamo recensito all'inizio di quest'anno, l'NX6325 aggrega le unità NVMe della scheda aggiuntiva (AIC) di Mangstor e le condivide sulla rete. Ciò consente alle applicazioni sensibili alla latenza di sfruttare tutti i grandi vantaggi dello storage NVMe, senza la necessità di avere un AIC all'interno di ogni server. Se abbinato allo switch Mellanox SN2700 100GbE e a ConnectX4 (Ethernet o InfiniBand), l'NX6325 ha capacità impressionanti, offrendo prestazioni di lettura segnalate di 12 GB/s e di scrittura di 9 GB/s su un singolo array.
A coordinare lo storage è il software TITAN di Mangstor. Abbiamo visto una prima versione di TITAN nell'NX6320; Mangstor ha realizzato il software generalmente disponibile all'inizio di questo mese. Fondamentalmente, TITAN offre una stretta integrazione tra gli SSD NVMe e le schede di interfaccia di rete (NIC) RDMA (Remote Direct Memory Access), utilizzando al tempo stesso in modo efficiente le funzionalità del server HPE. TITAN consente ai responsabili IT di effettuare il provisioning dinamico di flash sia localmente che in remoto con una gestione centralizzata. Le funzionalità includono anche funzioni come il caching dello storage e la gestione dei cluster, mentre TITAN offre un'API REST e strumenti GUI che consentono ai manager IT di distribuire e gestire facilmente cluster di grandi dimensioni di storage NVMf.
Mangstor offre due opzioni di capacità configurate per Ethernet o InfiniBand. Gli acquirenti possono scegliere tra un sistema da 10.8 TB configurato con quattro unità da 2.7 TB o un sistema da 21.6 TB con quattro unità da 5.4 TB. Il nostro sistema di revisione è la configurazione Ethernet da 10.8 TB.
Specifiche Mangstor NX6325
- Array di archiviazione flash
- Ethernet
- NX6325R-016TF-2P100GQSF, 10.8 TB (4 SSD da 2.7 TB)
- NX6325R-032TF-2P100GQSF, 21.6 TB (4 unità SSD da 5.4 TB)
- InfiniBand
- NX6325I-016TF-2P100GQSF, 10.8 TB (4 unità SSD da 2.7 TB)
- NX6325I-032TF-2P100GQSF, 21.6 TB (4 SSD da 5.4 TB)
- Ethernet
- Larghezza di banda Rd/Wr (GB/s): 12.0/9.0
- Velocità effettiva lettura/scrittura (4K) (IOPS): 3.0 milioni/2.25 milioni
- Potenza
- 450 W tipico
- Potenza di picco massima 800 W
- Connettività I/O
- 2 porte QSFP da 100 Gb/s
- 2x100Gb/s QSFP InfiniBand
- Latenza di lettura/scrittura: 110uS/30uS
- Attributi dell'appliance
- Montaggio su rack 2U (AxLxP): 3.44 x 17.54 x 26.75 cm (8.73 x 44.55 x 67.94 pollici)
- Tensione di alimentazione: da 100 a 240 V CA, 50/60 Hz – Alimentatore ridondante da 800 W
- Dissipazione del calore (BTU/ora): 3207 BTU/ora (a 100 V CA), 3071 BTU/ora (a 200 V CA), 3112 BTU/ora (a 240 V CA)
- Corrente di spunto massima: 30 A (durata 10 ms)
- Peso approssimativo: 51.5 libbre (23.6 kg) a pieno carico
- Ambientali
- Supporto operativo standard: da 10° a 35°C (da 50° a 95°F) al livello del mare con un declassamento in altitudine di 1.0°C ogni 305 m (1.8°F ogni 1000 piedi) sul livello del mare fino a un massimo di 3050 m (10,000 piedi)
- Umidità: Umidità relativa (Rh) dal 5 al 95% non operativa, temperatura massima a bulbo umido 38.7°C (101.7°F), senza condensa
- Supporto protocollo Fabric: RDMA su Converged Ethernet (RoCE), InfniBand, iWARP
- Supporto del sistema operativo client: RHEL, SLES, CentOS, Ubuntu, Windows, VMware ESXi 6.0 (VMDirectPath)
- Gestione operativa: CLI, API RESTful, OpenStack Cinder
- Garanzia su array e SSD: hardware 5 anni; Software di base 90 giorni
- Garanzia software: coperto da opzioni di assistenza e supporto di livello Gold o Platinum di 1 anno, 3 anni, 5 anni
Costruire e disegnare
Nell'array NX6320 precedentemente recensito, Mangstor ha sfruttato una piattaforma basata su Dell R730. Questa volta, con l'NX6325, utilizzano un HPE ProLiant DL380 Gen9. Anche se in apparenza il cambiamento appare “uguale per lo stesso”, il cambiamento è significativo per i clienti che desiderano implementare Ethernet da 100 Gb o Infiniband, spingendo al massimo il potenziale di archiviazione. Il Dell R730 offre 7 slot PCIe 3.0; quattro a tutta altezza x16 e tre a mezza altezza x8. HPE DL380 Gen9 ha solo 6 slot di espansione PCIe 3.0, anche se con un kit riser PCIe appropriato gli utenti possono creare una configurazione con sei slot x16 a tutta altezza.
Questa differenza è significativa, poiché le schede offerte da Mangstor sono SSD PCIe a tutta altezza e le schede NIC Mellanox ConnectX-100 da 4 GbE sono slot x16. Nella configurazione Dell, gli utenti dovrebbero eliminare un SSD PCIe per inserire la scheda 100GbE, mentre nella configurazione HPE, gli utenti possono dotare il sistema con 4 SSD PCIe e due NIC 100GbE contemporaneamente. Non si tratta tanto di una discussione su quale server sia migliore dell'altro, ma piuttosto di un'analisi su quale server funziona meglio con questa combinazione di carte piuttosto unica. Mangstor sottolinea che per i clienti che desiderano utilizzare Ethernet da 40 Gb o Infiniband da 56 Gb, entrambi i prodotti NX6320 e NX6325 offrono caratteristiche e prestazioni equivalenti. Dato che in questa recensione stiamo testando l'Ethernet da 100 Gb, l'NX6325 è la scelta giusta.
Prestazioni del Sysbench
Ogni banco di sistema La VM è configurata con tre vDisk, uno per l'avvio (~92 GB), uno con il database predefinito (~447 GB) e il terzo per il database in prova (307 GB). Le LUN sono suddivise equamente pari al 90% dello spazio di archiviazione utilizzabile (11 TB) per adattarsi adeguatamente al database (253 GB di dimensione). Dal punto di vista delle risorse di sistema, abbiamo configurato ciascuna VM con 16 vCPU, 60 GB di DRAM e sfruttato il controller SCSI SAS LSI Logic. I sistemi di generazione del carico lo sono Server Dell R730; in questa recensione ne impieghiamo da quattro a otto, scalando i server per gruppo di 4 VM.
Specifiche del cluster Dell PowerEdge R730 a 8 nodi
- Server Dell PowerEdge R730 (x8)
- CPU: sedici Intel Xeon E5-2690 v3 2.6 GHz (12C/24T)
- Memoria: RDIMM DDR128 da 16 x 4 GB
- Mellanox ConnectX-4 LX
- VMware ESXi 6.0
La nostra precedente recensione del Mangstor NX6320 sfruttava le schede Mellanox ConnectX-3 e i driver OFED ESXi 6.0, dove una scheda era assegnata a ciascuna VM (limitando la nostra scala al numero di NIC a disposizione). L'attuale iterazione dell'NX6325 con le schede Mellanox ConnectX-4 LX e gli ultimi driver SRIOV ci ha permesso di condividere più adattatori virtuali con un massimo di 4 VM contemporaneamente. Con una scheda allocata per server, abbiamo utilizzato questa configurazione per consentirci di scalare fino a testare un totale di 32 VM.
Con un carico completo di 32 VM, abbiamo visto ciascun server scendere di livello con un utilizzo della CPU di circa l'86%.
Configurazione test Sysbench (per VM)
- CentOS 6.3 a 64 bit
- Impronta di archiviazione: 1 TB, 800 GB utilizzati
- Percona XtraDB 5.5.30-rel30.1
- Tabelle del database: 100
- Dimensione del database: 10,000,000
- Discussioni del database: 32
- Memoria RAM: 24 GB
- Durata della prova: 3 ore
- 2 ore di precondizionamento di 32 thread
- 1 ora 32 thread
Nel nostro test OLTP Sysbench, abbiamo portato l'array da un piccolo carico di 4 VM fino a un punto di saturazione totale con 32 VM. Il Mangstor NX6325 ha raggiunto alcuni record impressionanti. Tanto per cominciare, ha offerto le prestazioni più veloci in Sysbench senza flash collegato localmente e, rispetto a qualsiasi altra cosa che abbiamo mai testato, ha alzato il livello di più di un fattore due. L'NX6325 ha raggiunto i 38,673 TPS, mentre il precedente detentore del record per una moderna soluzione di archiviazione flash condivisa è arrivato a "solo" 17,316 TPS.
Osservando la latenza, troviamo che l'NX6325 se la cava molto bene sotto carico, mantenendo la latenza transazionale complessiva in un intervallo compreso tra 14.3 ms a 4 VM e 26.6 ms a 32 VM. Quindi, anche se il carico è aumentato di 8 volte, la latenza non è nemmeno raddoppiata.
Osservando la latenza marginale con i nostri valori al 99esimo percentile, il Mangstor NX6325 si è comportato abbastanza bene sotto carico. Abbiamo visto i valori aumentare lentamente man mano che il carico complessivo aumentava, ma nulla è aumentato in modo drammatico.
Conclusione
L'array di archiviazione condiviso Mangstor NX6325 NVMe Over Fabrics (NVMf) è uno dei primi sistemi disponibili in commercio che consente di estrarre uno spazio di archiviazione NVMe molto veloce dai server delle applicazioni e inserirlo in una scatola dove può essere sfruttato da un intero cluster di server . In questo caso, l'NX6325 che stiamo esaminando offre fino a 10.8 TB di spazio di archiviazione NVMe in un HPE ProLiant DL380 Gen9, su una struttura composta da uno switch Mellanox SN2700 100GbE e schede adattatore ConnectX4 LX. Il risultato netto è un pacchetto assolutamente rovente al punto da essere lo spazio di archiviazione condiviso più veloce mai arrivato in laboratorio. Per essere onesti, questo non è direttamente paragonabile ad altre soluzioni veloci che abbiamo visto (come la più tradizionale SAN all-flash) e per questo motivo è necessario chiarire alcune cose.
NVMf è ancora un concetto molto giovane in termini di esecuzione. Mangstor, da parte sua, è molto avanti sulla strada e, per le applicazioni estremamente sensibili alla latenza, i risultati sono fenomenali. Alcune cose devono ancora maturare affinché questa tecnologia possa sostituire la tecnologia SAN ovunque, ma per i carichi di lavoro chiave è un’opzione fantastica. Rispetto ad altre soluzioni NVMf, Mangstor sfrutta Ethernet o IB esistenti per la struttura, rendendola più compatibile rispetto ad alcune che utilizzano hardware personalizzato. È anche importante notare che il modo in cui viene presentato lo storage in questo array non offre protezione da un guasto dell'SSD PCIe. L'array è configurato in RAID0 per prestazioni e capacità massime. Esistono alcune applicazioni in grado di gestire sistemi come questo, ma per i carichi di lavoro tradizionali è necessario sottolineare che questo array non è "taglia unica".
Osservando le prestazioni nel nostro test OLTP Sysbench, abbiamo visto numeri straordinari. A 4 VM, il TPS aggregato era superiore al totale offerto dalla maggior parte degli array o a ciò che la flash NVMe collegata localmente può offrire. Aumentando il carico di lavoro aumentando il numero di VM, abbiamo osservato che le prestazioni aggregate continuavano a salire fino a superare di oltre due volte la soluzione di storage flash condiviso più vicina. Lo svantaggio principale del nostro ambiente in questo momento è il supporto dei driver, che ne impedisce l'utilizzo come archivio dati condiviso VMware. Ciò presenta alcune sfide, come la migrazione delle VM (essendo legate a un dispositivo di rete virtuale) o il supporto del sistema operativo guest, che attualmente è incentrato su Linux. Tuttavia, per gli utenti che riescono ad aggirare queste limitazioni, il Mangstor NX6325 apre le porte a livelli di prestazioni che poche, se non nessuna, soluzioni concorrenti possono eguagliare.
Vantaggi
- Prende tutto il potenziale prestazionale di NVMe e lo condivide su una rete ad alta velocità
- La soluzione di archiviazione condivisa più veloce che abbiamo testato fino ad oggi
- Non legato all'hardware personalizzato per la struttura di rete
Svantaggi
- Richiede una buona dose di configurazione manuale
Conclusione
L'array di archiviazione condiviso Mangstor NX6325 NVMe Over Fabrics (NVMf) offre prestazioni flash NVMe eccezionalmente veloci su una struttura Ethernet condivisa.