Chi è alla ricerca di un array di storage all-flash ad alte prestazioni sarà ben soddisfatto dal NetApp AFF A800. L'array NVMe end-to-end offre prestazioni eccezionali e proviene dalla potente linea di array AFF di NetApp. Abbiamo già esaminato l'A800 su Fibre Channel e abbiamo scoperto che è un artista bestiale che ha vinto il premio Editor's Choice. Per questa recensione stiamo testando lo stesso array, solo che questa volta sfrutta NVMe over Fabrics (NVMeOF).
Chi è alla ricerca di un array di storage all-flash ad alte prestazioni sarà ben soddisfatto dal NetApp AFF A800. L'array NVMe end-to-end offre prestazioni eccezionali e proviene dalla potente linea di array AFF di NetApp. Abbiamo già esaminato l'A800 su Fibre Channel e abbiamo scoperto che è un artista bestiale che ha vinto il premio Editor's Choice. Per questa recensione stiamo testando lo stesso array, solo che questa volta sfrutta NVMe over Fabrics (NVMeOF).
Poiché si tratta di una revisione di follow-up, non entreremo in aspetti come la progettazione e la costruzione, le specifiche o la gestione. Nostro revisione iniziale va bene in ciascuna di queste aree. La configurazione per la revisione è essenzialmente la stessa con un'interfaccia di rete diversa per vedere la differenza di prestazioni. Va notato che questo non è esattamente un confronto tra mele e mele. L'array offre varie connettività per le diverse esigenze degli utenti e stiamo esaminando diversi tipi per dare agli utenti un'idea di cosa aspettarsi con quale opzione di connettività.
Introdotto per la prima volta nel 2014, NVMeOF è il concetto di utilizzare un protocollo di trasporto su una rete invece di sfruttare semplicemente i dispositivi NVMe attraverso il bus PCIe. NVM Express, Inc. ha pubblicato lo standard per NVMeOF nel 2016. NVMeOF consente all'host NVMe di connettersi a uno storage di destinazione NVMe mantenendo bassa la latenza. L'idea generale è quella di ottenere maggiori prestazioni senza aumentare sostanzialmente la latenza. Fino ad oggi ci sono stati molti approcci da parte di diversi fornitori riguardo al protocollo supportato o alla possibilità di eseguirlo in più modalità contemporaneamente. L'AFF A800 dotato di ONTAP è in grado di eseguire CIFS, NFS, iSCSI, FCP e FC NVMeOF contemporaneamente, il tutto senza fatica. Non tutte le piattaforme sono realizzate in questo modo, anche NetApp EF600 (progettato con obiettivi leggermente diversi in mente) può funzionare sia in FCP che in FC NVMeOF, ma non in entrambi contemporaneamente.
Configurazione delle prestazioni
La configurazione del nostro NetApp AFF A800 includeva 8 porte FC da 32 Gb con 24 SSD NVMe da 1.92 TB installati. Dei 24 SSD da 1.92 TB distribuiti nel nostro A800, li abbiamo suddivisi in due aggregati RAID-DP, con effettivamente 23 SSD in uso e due mezze partizioni mantenute come hot-spare. La metà di ciascun SSD è partizionata su entrambi i controller, in modo che ciascun controller possa utilizzare le prestazioni di tutti gli SSD installati. L'array era collegato tramite 32 Gb tramite due switch Brocade G620, che avevano quindi 16 collegamenti da 32 Gb a 12 server Dell PowerEdge R740xd che eseguivano SLES 12 SP4.
Ciascun server è stato dotato di 2 LUN da 350 GB, per un ingombro di storage totale di 8.4 TB.
Performance
Quando si tratta di effettuare benchmark sugli array di storage, il test delle applicazioni è la soluzione migliore, mentre il test sintetico viene al secondo posto. Pur non essendo una rappresentazione perfetta dei carichi di lavoro effettivi, i test sintetici aiutano a definire i dispositivi di storage con un fattore di ripetibilità che semplifica il confronto tra soluzioni concorrenti. Questi carichi di lavoro offrono una gamma di profili di test diversi che vanno dai test "quattro angoli", test comuni sulle dimensioni di trasferimento del database, nonché acquisizioni di tracce da diversi ambienti VDI. Tutti questi test sfruttano il comune generatore di carichi di lavoro vdBench, con un motore di scripting per automatizzare e acquisire risultati su un ampio cluster di test di calcolo. Ciò ci consente di ripetere gli stessi carichi di lavoro su un'ampia gamma di dispositivi di storage, inclusi array flash e singoli dispositivi di storage.
Profili:
- Lettura casuale 4K: 100% di lettura, 128 thread, 0-120% irate
- Scrittura casuale 4K: scrittura al 100%, 64 thread, 0-120% irate
- Lettura sequenziale 64K: lettura al 100%, 16 thread, 0-120% irate
- Scrittura sequenziale 64K: scrittura al 100%, 8 thread, 0-120% irate
- Database sintetici: SQL e Oracle
Il principale vantaggio prestazionale di NVMeOF con l'A800 è un aumento delle prestazioni di lettura e una minore latenza. Mentre i nostri test precedenti si concentravano sulle prestazioni all'interno di VMware utilizzando il protocollo FCP, con VMDK collegati a più VM, i nostri test NVMeOF si concentrano sulle prestazioni bare metal. Pertanto non è possibile effettuare un confronto diretto uno a uno con i nostri dati esistenti. È importante notare inoltre che, per garantire test coerenti su tutti i nostri array di archiviazione, abbiamo mantenuto lo stesso numero di thread per ciascun array di archiviazione. Con il test NVMeOF sull'A800, abbiamo notato alcune aree in cui il nostro test è terminato prima di un aumento significativo della latenza. Innanzitutto ciò dimostra che la piattaforma sta funzionando eccezionalmente bene, con una bassa latenza e statistiche di prestazione impressionanti. Lo svantaggio però è che una certa quantità di prestazioni è stata lasciata sul tavolo. NetApp ha affermato che in determinate circostanze l'A800 può fornire prestazioni ancora più elevate di quelle da noi misurate.
Partendo dalla lettura 4K, l'A800 con NVMeOF è partito da 217,460 IOPS con una latenza di soli 196.8 µs e ha raggiunto il picco a 2,184,220 IOPS con una latenza di 1.22 ms.
Per le scritture 4K l'array è iniziato a 48,987 IOPS con una latenza di 196 µs e ha raggiunto il picco a 465,445 IOPS con una latenza di 2.44 ms.
Successivamente ci sono i nostri carichi di lavoro sequenziali da 64K. Per una lettura di 64K l'A800 è stato in grado di mantenere una latenza inferiore al millisecondo con prestazioni di picco di circa 403K IOPS o 25GB/s con una latenza di 800μs prima di un leggero calo.
Per la scrittura a 64K, l'A800 con NVMeOF ha iniziato bene ed è rimasto sotto 1 ms fino a circa 110 IOPS o circa 7 GB/s e ha raggiunto il picco a 120,314 IOPS o 7.52 GB/s con una latenza di 1.48 ms.
La nostra prossima serie di benchmark sono i nostri test SQL. In SQL l'A800 è rimasto sotto 1 ms per tutto il tempo con un picco impressionante di 1,466,467 IOPS con una latenza di soli 496.6 µs.
Per SQL 90-10 l'A800 con NVMeOF ha registrato un'altra serie impressionante di prestazioni di latenza inferiore al millisecondo, partendo da 139,989 IOPS e raggiungendo un picco di 1,389,645 IOPS con una latenza di soli 539.6 µs.
SQL 80-20 ha registrato ancora una volta una latenza inferiore al millisecondo con un picco di 1,108,068 IOPS con una latenza di 658 µs.
Passando ai nostri carichi di lavoro Oracle, l'A800 con NVMeOF è rimasto al di sotto di 1 ms con un punteggio di picco di 1,057,570 IOPS con una latenza di 860.4 µs.
Oracle 90-10 ha visto l'A800 iniziare a 118,586 IOPS e raggiungere il picco a 1,140,178 IOPS con una latenza di 397.6 µs.
In Oracle 80-20 abbiamo visto che l'A800 ha avuto ancora una volta una latenza inferiore al millisecondo, partendo da 104,206 IOPS e raggiungendo un picco di 1,003,577 IOPS con una latenza di 468.8 µs.
Conclusione
NetApp AFF A800 è un array all-flash 4U che supporta l'accesso a blocchi e file, nonché il supporto NVMe end-to-end. L'A800 è rivolto a coloro che hanno i carichi di lavoro più impegnativi che necessitano di molte prestazioni e molto spazio di archiviazione, con una capacità effettiva massima di 316.8 PB. Mentre il nostro primo recensione pluripremiata osservando questo array rispetto al tradizionale Fibre Channel, questa recensione sfrutta NVMe rispetto a Fabrics per vedere come sono andate le cose.
Per i nostri carichi di lavoro VDBench, NetApp AFF A800 ha offerto una serie impressionante di numeri su tutta la linea. Nella nostra esecuzione di base ai quattro angoli abbiamo riscontrato prestazioni di picco 4K casuali di 2.2 milioni di IOPS in lettura e 465 IOPS in scrittura. Nei nostri carichi di lavoro sequenziali da 64K abbiamo riscontrato 25 GB/s in lettura e 7.52 GB/s in scrittura. Nei nostri carichi di lavoro SQL abbiamo registrato picchi di 1.5 milioni di IOPS, SQL 90-10 ha registrato 1.4 milioni di IOPS e SQL 80-20 ha registrato 1.1 milioni di IOPS. I nostri test Oracle hanno mostrato l'impressionante valore di 1.1 milioni di IOPS, Oracle 90-10 ci ha fornito 1.14 milioni di IOPS e Oracle 80-20 ha registrato 1 milione di IOPS. Ancora più impressionante è stato il fatto che i carichi di lavoro SQL e Oracle siano rimasti al di sotto di 1 ms di latenza durante tutto il processo.
Anche se abbiamo riscontrato ottimi risultati con l'A800 configurato per NVMeOF, soprattutto in termini di prestazioni di lettura, vale la pena notare che il sistema ha ancora molto da dare. Nei nostri test i server di generazione del carico erano tutti basati su hypervisor VMware, il che aggiunge un ulteriore livello di complessità. Inoltre, al momento VMware non supporta completamente NVMeOF. Per le aziende tradizionali che desiderano sfruttare appieno NVMeOF con i sistemi NetApp, il bare metal garantirà le migliori prestazioni. Detto questo, molti vorranno utilizzare i sistemi NVMeOF ONTAP in una configurazione ibrida, utilizzando sia i tessuti che la connettività Fibre Channel standard. In entrambi i casi, NetApp continua a essere all'avanguardia in termini di adozione e implementazione di tecnologie all'avanguardia per garantire che i propri array siano pronti per qualsiasi esigenza dei clienti, ogni volta che ne hanno bisogno. L'A800 si comporta particolarmente bene in questo caso, motivo per cui gli abbiamo assegnato una scelta dell'editore nella nostra recensione iniziale. NVMeOF aggiunge un enorme incremento delle prestazioni che dovrebbe attrarre le aziende che richiedono il massimo throughput e una latenza di microsecondi per le loro applicazioni business-critical.