Casa Impresa Recensione NetApp AFF A800

Recensione NetApp AFF A800

NetApp A800

AFF A800 è l'array di storage all-flash ONTAP top di gamma di NetApp, che al momento del lancio offriva un NVMe/FC end-to-end primo nel settore su FC da 32 Gb, nonché connettività da 100 GbE. Fino ad oggi, ci siamo fatti strada attraverso la gamma AFF all-flash, iniziando da quella più potente A200 (essendo stato da allora sostituito dall'A220) così come il A300. Entrambe le unità che abbiamo esaminato in precedenza hanno vinto i premi Editor's Choice. Oggi esamineremo il potente A800 basato su NVMe che offre gli stessi vantaggi ONTAP dei modelli recensiti in precedenza, oltre a prestazioni esponenzialmente più veloci e una latenza inferiore. Mentre questa recensione iniziale si concentra sulle prestazioni del sistema su Fibre Channel, gli articoli successivi approfondiranno il supporto end-to-end NVMe over Fabrics (NVMeoF) dell'A800.


AFF A800 è l'array di storage all-flash ONTAP top di gamma di NetApp, che al momento del lancio offriva un NVMe/FC end-to-end primo nel settore su FC da 32 Gb, nonché connettività da 100 GbE. Fino ad oggi, ci siamo fatti strada attraverso la gamma AFF all-flash, iniziando da quella più potente A200 (essendo stato da allora sostituito dall'A220) così come il A300. Entrambe le unità che abbiamo esaminato in precedenza hanno vinto i premi Editor's Choice. Oggi esamineremo il potente A800 basato su NVMe che offre gli stessi vantaggi ONTAP dei modelli recensiti in precedenza, oltre a prestazioni esponenzialmente più veloci e una latenza inferiore. Mentre questa recensione iniziale si concentra sulle prestazioni del sistema su Fibre Channel, gli articoli successivi approfondiranno il supporto end-to-end NVMe over Fabrics (NVMeoF) dell'A800.

A differenza dei modelli A200 e A300 realizzati per diversi segmenti del mercato di fascia media, il modello A800 è progettato per i carichi di lavoro che richiedono le massime prestazioni (come AI e Deep Leaning), includendo anche il robusto set di servizi dati aziendali offerto da ONTAP. conosciuto per. Per essere chiari, NetApp offre una serie di soluzioni di storage davvero veloci nella famiglia all-flash EF, come i midrange EF570 abbiamo esaminato in precedenza. Tornando all'A800, NetApp afferma che il sistema può raggiungere 1.3 milioni di IOPS con una latenza inferiore a 500 μs e un throughput fino a 34 GB/s con una coppia HA. Su larga scala, ciò significa che un cluster NAS può fornire fino a 11.4 milioni di IOPS con una latenza di 1 ms e 300 GB/s di throughput. Un cluster SAN può fornire fino a 7.8 milioni di IOPS con una latenza di 500 µs e 204 GB/s di throughput.

Come il resto dei sistemi AFF serie A, NVMe A800 può scalare fino a 24 (12 coppie HA) nodi a doppio controller 4U in un cluster in configurazione NAS. Poiché si tratta di un sistema basato su NVMe, c'è qualche sfumatura quando si tratta di scalare l'unità. L'A300 di fascia media, ad esempio, supporta 4608 unità mentre l'A800 arriva a 2880. Sebbene non sia probabile che si tratti di un problema funzionale una volta implementato, lo evidenziamo solo per indicare che i sistemi basati su NVMe presentano sfide ingegneristiche diverse quando si considerano gli scaffali di espansione JBOD rispetto a Sistemi basati su SAS, quindi non possiamo semplicemente supporre che man mano che si sale nella linea di prodotti, tutto diventi più grande. In una configurazione SAN, NVMe A800 è scalabile fino a 12 nodi (6 coppie HA) con supporto per 1,440 unità. Detto questo, se gli utenti sfruttano gli SSD NVMe da 15.3 TB, possono scalare fino a 2.5 PB in un ingombro 4U. Con l'efficienza dei dati abilitata (presupponendo 5:1), l'A800 supporta oltre 315 PB in un cluster NAS a 24 nodi e 160 TB in un cluster SAN.

Mentre NetApp ha abilitato il supporto NVMe front-end in altri sistemi AFF, l'A800 offre quello che viene chiamato supporto NVMe end-to-end. Come notato, non approfondiremo completamente cosa ciò significhi in questa recensione. Basti dire che l'A800 è il primo array NVMe all-flash a raggiungere questo obiettivo. In effetti, ciò significa che le organizzazioni possono trarre vantaggio dall'ondata emergente di funzionalità NVMeoF oggi, pur continuando a gestire i carichi di lavoro più tradizionali su FC. In precedenza, le organizzazioni che desideravano trarre vantaggio da NVMeoF erano generalmente relegate a tipologie di implementazioni di “progetti scientifici” che, sebbene veloci, presentavano limitazioni in termini di scala e servizi dati. L’implementazione di NetApp qui risolve queste carenze, fornendo anche supporto per le opzioni di connettività standard sia in FC che in Ethernet.

Naturalmente, non possiamo parlare dell'A800 senza evidenziare la connettività cloud e il Tessuto dati NetApp. ONTAP è dotato di una profonda connettività ai principali fornitori di servizi cloud, che consente ai clienti di posizionare i propri dati dove ha più senso, sia localmente sull'A800 che altrove. NetApp supporta connessioni cloud e multi-cloud con Amazon Web Services, Microsoft Azure, Google Cloud Platform e altri. L'ampio supporto cloud consente ai clienti NetApp di avere la flessibilità di cui hanno bisogno nella gestione dell'impronta dei dati e l'agilità di spostare i dati secondo necessità per sfruttare i vantaggi economici del cloud, nuove funzionalità o tipi di forma e così via.

La nostra build particolare consiste in un A800 con 24 SSD NVMe da 1.92 TB con due porte FC da 32 Gb a quattro porte collegate per controller (8 porte in totale) con ONTAP 9.5RC1 installato.

Specifiche NetApp A800

Massima scalabilità orizzontale 2-24 nodi (12 coppie HA)
SSD massimo 2880
Massima capacità effettiva 316.3PB
Per sistema doppio controller attivo-attivo
Fattore di forma del controller 4U
Slot di espansione PCIe 8
Porte di destinazione FC (ranging automatico da 32 Gb) 32
Porte di destinazione FC (ranging automatico da 16 Gb) 32
Porte 100GbE (ranging automatico 40GbE) 20
Porte 10GbE 32
Rete di archiviazione supportata NVMe/FC
FC
iSCSI
NFS
pNFS
​CIFS/PMI
Versione del sistema operativo ONTAP 9.4 RC1 o successivo
Scaffali e supporti Pacchetti unità NVMe
Sistema operativo host/client supportato Windows 2000
Di Windows Server 2003
Di Windows Server 2008
Di Windows Server 2012
Di Windows Server 2016
Linux
Oracolo Solaris
AIX
HP-UX
Mac OS
VMware
​ESX

Progetta e costruisci

Il NetApp AFF A800 è un array 4U che ha un aspetto molto simile al resto della serie AFF. Sotto l'elegante cornice che contiene la ventilazione e il marchio NetApp, ci sono due file di alloggiamenti per unità blu da 2.5" per gli SSD.

Considerando le unità NVMe stesse, NetApp supporta un'ampia gamma di opzioni di capacità tra cui SSD da 1.9 TB, 3.8 TB, 7.6 TB e 15.3 TB. Al momento della stesura di questo articolo, NetApp fornisce tutte queste unità con crittografia automatica (SED) con crittografia AES-256. Inoltre, per i sistemi inizializzati con ONTAP 9.4, è abilitato l'azzeramento rapido dell'unità.

Girando sul retro del dispositivo, ci sono due controller: uno impilato sopra l'altro come un'immagine speculare. La nostra configurazione include quattro diversi stili di interfacce per la connettività. Queste quattro schede si trovano negli slot PCIe più a destra e al centro. Includono una scheda FC da 32 Gb a quattro porte (in alto a sinistra), una scheda di rete da 25 GbE a doppia porta (in basso a sinistra), una scheda di rete da 100 GbE a doppia porta (in alto a destra) e una scheda di rete da 10 GbE a quattro porte (in basso a destra).

Rimuovendo uno dei controller, possiamo vedere i collegamenti al resto dell'unità, così come le ventole che rivestono la parte anteriore del controller.

Passando al controller posteriore, il lato sinistro presenta due alimentatori ridondanti per ciascun controller, nonché le porte di interconnessione HA e le porte di interconnessione del cluster. La parte inferiore destra di ciascun controller dispone inoltre di porte 1HA e di interconnessione cluster. La maggior parte del resto è occupata da slot PCIe (cinque) che possono essere popolati con porte di rete da 100 GbE, 10 GbE o Fibre Channel da 32 Gb o una combinazione di quanto sopra come nella nostra configurazione. Nella parte centrale in basso ci sono le porte di gestione e due porte USB 3.0.

Il controller è incredibilmente facile da aprire, rendendolo molto utile.

Possiamo vedere le due CPU, 20 slot DIMM (popolati con 20 DIMM da 32 GB di RAM) e i due slot NVDIMM. Anche gli AIC della rete PCIe sono facilmente accessibili da qui.

Management

La GUI ONTAP ha fatto molta strada nel corso degli anni, da una GUI abilitata per Java nella versione 8.2 e precedenti alla moderna e ben progettata ONTAP 9.5 basata sul web. NetApp ha apportato miglioramenti significativi alla GUI, rendendola sempre più utilizzabile non solo per le funzioni di amministrazione quotidiana.

Dashboard:

Dopo aver effettuato l'accesso, verrai accolto dalla dashboard che ti fornirà un rapido riepilogo di ciò che sta accadendo al sistema. La dashboard è piuttosto semplice per quanto riguarda ciò che puoi vedere. Ciascuno dei widget consente una rapida occhiata ad avvisi, prestazioni, capacità, efficienza e protezione. Per una visualizzazione più dettagliata e trend a lungo termine, si consiglia di utilizzare OnCommand Unified Manager di NetApp per le metriche ONTAP.

Livello cloud:

Con l'aggiunta dell'opzione Fabric Pool di NetApp Cloud, la GUI semplifica la connessione ai cloud pubblici, inclusi NDAS, nonché allo StorageGRID locale.

SVM:

Da questa scheda è possibile creare, modificare, eliminare e avviare/arrestare tutte le SVM del protocollo dati sul cluster ONTAP, nonché modificare varie impostazioni.

Pool di aggregazione e storage:

Le schede Aggregato e Pool di archiviazione consentono la creazione e la gestione semplice di aggregati e pool di archiviazione.

Volumi e LUN:

La pagina di amministrazione del volume e delle LUN offre un'ampia varietà di possibilità di creazione e amministrazione di FlexVol, FlexGroup e LUN, nonché igroup e mappatura per ciascuna SVM.

Qualità del servizio:

QoS ha fatto molta strada su ONTAP nel corso degli anni, poiché ora puoi configurare limiti e piani per ciascun carico di lavoro, oltre a configurarli per adattarsi ai carichi di lavoro in evoluzione. QoS può essere applicato a vari oggetti all'interno di ONTAP come volumi, file e LUN, nonché ad alcuni altri oggetti.

Configurazione di rete:

Tutta la configurazione e l'amministrazione di rete di base sono presenti nella GUI: spazi IP, domini di trasmissione, porte, LIF, FC e ora NVMe.

Sguardo:

Fino alle ultime versioni di ONTAP, dovevi creare relazioni di peering esclusivamente tramite la CLI; tuttavia, ora puoi creare peer Cluster e persino peer SVM nella GUI. Una volta configurato il peering, puoi anche creare una relazione SnapMirror direttamente nella procedura guidata di creazione del volume.

Aggiornamenti del cluster:

Gli aggiornamenti ONTAP stanno diventando sempre più facili da eseguire. Una funzionalità piccola ma molto utile aggiunta nella versione 9.4 rende ancora più semplice l'esecuzione degli aggiornamenti ONTAP. Sicuramente tutti amiamo la riga di comando, ma ciò rende davvero semplice collaborare con i clienti per aggiornare i propri file. Niente più server http/ftp con cui scherzare; basta caricare direttamente il file .tgz ed eseguire l'aggiornamento automatico del cluster.

Performance

Per quanto riguarda le prestazioni, confronteremo l'A800 con l'A300. Questo viene utilizzato per mostrare quanto bene le prestazioni dei modelli AFF NetApp si adattano man mano che si sale nella famiglia. In tutti i nostri test abbiamo abilitato i servizi di riduzione dei dati, il che significa che la deduplica e la compressione in linea sono abilitate. Come abbiamo notato nelle revisioni precedenti, NetApp ONTAP offre ottime funzionalità DR con un sovraccarico o un impatto minimo sulle prestazioni.

La configurazione del nostro NetApp AFF A800 includeva 8 porte FC da 32 Gb con 24 SSD NVMe da 1.92 TB installati. Dei 24 SSD da 1.92 TB distribuiti nel nostro A800, li abbiamo suddivisi in due aggregati RAID-DP, con 11 SSD in uso e uno come hot-spare. L'array era collegato tramite 32 Gb tramite due switch Brocade G620, che avevano quindi 16 collegamenti da 16 Gb ai nostri server Dell PowerEdge R740xd.

Per i nostri benchmark sintetici utilizzando VDbench e Sysbench, abbiamo effettuato il provisioning di 32 volumi da 600 GB distribuiti uniformemente su controller e gruppi di dischi. Per SQL Server abbiamo utilizzato altri quattro volumi da 1.1 TB, due per controller, per contenere le VM utilizzate per il benchmarking. Tenendo conto della riduzione dei dati, l'impronta totale utilizzata durante i nostri test ammontava a poco meno del 50% di utilizzo per ciascun aggregato.

Prestazioni dell'SQL Server

Il protocollo di test OLTP di Microsoft SQL Server di StorageReview utilizza l'attuale bozza del Benchmark C (TPC-C) del Transaction Processing Performance Council, un benchmark di elaborazione delle transazioni online che simula le attività presenti in ambienti applicativi complessi. Il benchmark TPC-C si avvicina di più rispetto ai benchmark sintetici delle prestazioni per valutare i punti di forza e i colli di bottiglia delle prestazioni dell'infrastruttura di storage negli ambienti di database.

Ogni VM SQL Server è configurata con due dischi virtuali: un volume da 100 GB per l'avvio e un volume da 500 GB per il database e i file di log. Dal punto di vista delle risorse di sistema, abbiamo configurato ciascuna VM con 16 vCPU, 64 GB di DRAM e abbiamo sfruttato il controller SCSI SAS LSI Logic. Sebbene i nostri carichi di lavoro Sysbench testati in precedenza saturassero la piattaforma sia in termini di I/O di archiviazione che di capacità, il test SQL cerca le prestazioni di latenza.

Questo test utilizza SQL Server 2014 in esecuzione su VM guest Windows Server 2012 R2 ed è sottoposto a stress da Dell Benchmark Factory for Databases. Mentre il nostro utilizzo tradizionale di questo benchmark è stato quello di testare grandi database su scala 3,000 su storage locale o condiviso, in questa iterazione ci concentriamo sulla distribuzione uniforme di quattro database su scala 1,500 sui nostri server.

Configurazione di test di SQL Server (per VM)

  • Di Windows Server 2012 R2
  • Impronta di archiviazione: 600 GB allocati, 500 GB utilizzati
  • SQL Server 2014
    • Dimensioni del database: scala 1,500
    • Carico del client virtuale: 15,000
    • Memoria RAM: 48 GB
  • Durata della prova: 3 ore
    • 2.5 ore di precondizionamento
    • Periodo di campionamento di 30 minuti

Per quanto riguarda le prestazioni transazionali di SQL Server, l'A800 ha ottenuto un punteggio complessivo di 12,635.5 TPS con singole VM che vanno da 3,158.6 TPS a 3,159.3 TPS (un piccolo miglioramento rispetto ai 300 TPS dell'A12,628.7 e ai 200 TPS dell'A12,583.8).

Osservando la latenza media di SQL Server, notiamo un miglioramento maggiore nell'A800 poiché è scesa a 5 ms complessivi e 5 ms su tutte le VM (molto meglio degli 300 ms dell'A8 e dei 200 ms dell'A25).

Prestazioni Sysbench MySQL

Il nostro primo benchmark dell'applicazione di archiviazione locale è costituito da un database Percona MySQL OLTP misurato tramite SysBench. Questo test misura il TPS medio (transazioni al secondo), la latenza media e anche la latenza media del 99° percentile.

Ciascuna VM Sysbench è configurata con tre vDisk: uno per l'avvio (~ 92 GB), uno con il database predefinito (~ 447 GB) e il terzo per il database in fase di test (270 GB). Dal punto di vista delle risorse di sistema, abbiamo configurato ciascuna VM con 16 vCPU, 60 GB di DRAM e abbiamo sfruttato il controller SCSI SAS LSI Logic.

Configurazione test Sysbench (per VM)

  • CentOS 6.3 a 64 bit
  • Percona XtraDB 5.5.30-rel30.1
    • Tabelle del database: 100
    • Dimensione del database: 10,000,000
    • Discussioni del database: 32
    • Memoria RAM: 24 GB
  • Durata della prova: 3 ore
    • 2 ore di precondizionamento di 32 thread
    • 1 ora 32 thread

Per Sysbench, abbiamo testato diversi set di VM, tra cui 8, 16 e 32, e abbiamo eseguito Sysbench con la riduzione dei dati su "On". L'A800 è stato in grado di raggiungere 15,750.8 TPS per 8VM, 22,170.9 TPS per 16VM e 44,149.8 TPS per 32VM. Questi sono molto più alti rispetto ai precedenti, quasi raddoppiando quello che faceva l'A300 con 32VM, 22,313 TPS.

Con la latenza media di Sysbench, l'A800 ha raggiunto 16.3 ms per 8 VM, 23.1 ms per 16 VM e 23.2 ms a 32 VM. Questo è molto meglio dei modelli AFF più piccoli.

Nel nostro scenario peggiore (99° percentile), la latenza dell'A800 ha raggiunto 31.3 ms per 8 VM, 48.5 ms per 16 VM, 48.1 ms per 32 VM.

Analisi del carico di lavoro VDBench

Quando si tratta di effettuare benchmark sugli array di storage, il test delle applicazioni è la soluzione migliore, mentre il test sintetico viene al secondo posto. Pur non essendo una rappresentazione perfetta dei carichi di lavoro effettivi, i test sintetici aiutano a definire i dispositivi di storage con un fattore di ripetibilità che semplifica il confronto tra soluzioni concorrenti. Questi carichi di lavoro offrono una gamma di profili di test diversi che vanno dai test "quattro angoli", test comuni sulle dimensioni di trasferimento del database, nonché acquisizioni di tracce da diversi ambienti VDI. Tutti questi test sfruttano il comune generatore di carichi di lavoro vdBench, con un motore di scripting per automatizzare e acquisire risultati su un ampio cluster di test di calcolo. Ciò ci consente di ripetere gli stessi carichi di lavoro su un'ampia gamma di dispositivi di storage, inclusi array flash e singoli dispositivi di storage.

Profili:

  • Lettura casuale 4K: lettura al 100%, 128 thread, 0-120% irate
  • Scrittura casuale 4K: scrittura al 100%, 64 thread, 0-120% irate
  • Lettura sequenziale 64K: lettura al 100%, 16 thread, 0-120% irate
  • Scrittura sequenziale a 64K: scrittura al 100%, 8 thread, 0-120% irate
  • Database sintetici: SQL e Oracle
  • Clonazione completa VDI e tracce di clonazione collegata

Partendo dalle prestazioni di picco in lettura casuale 4K, l'A800 ha iniziato a 118,511 IOPS con una latenza di 217.5μs. L'A800 è rimasto sotto 1 ms fino a raggiungere circa 1.07 milioni di IOPS e ha raggiunto il picco di 1,219.829 IOPS con una latenza di 3.3 ms. Si tratta di una differenza marcata rispetto alle prestazioni di picco dell'A300 di 635,342 IOPS con una latenza di 6.4 ms.

Considerando le prestazioni di scrittura 4K, l'A800 ha iniziato a 45,676 IOPS con una latenza di 213.1μs. L'A800 ha avuto prestazioni di latenza inferiori al millisecondo fino a circa 410 IOPS e ha raggiunto il picco a circa 439 IOPS con una latenza di 4.4 ms prima di ridurne un po'. Al contrario, l'A300 ha avuto una prestazione di picco di 208,820 IOPS con una latenza di 9.72 ms.

Passando ai carichi di lavoro sequenziali, osserviamo le prestazioni di lettura di picco a 64K, e qui l'A800 è partito da 29,589 IOPS o 1.85GB/s con una latenza di 166.1μs. L'A300 ha avuto una latenza inferiore al millisecondo fino a circa 300 IOPS o 18.5 GB/s, raggiungendo il picco a 302,668 IOPS o 18.9 GB/s con una latenza di 1.7 ms. L'A300 ha raggiunto il picco di circa 84,766 IOPS o 5.71 GB/s con una latenza di 3.64 ms prima di diminuire leggermente.

Per le prestazioni di scrittura sequenziale a 64K, l'A800 è partito da 8,103 IOPS o 506.4 MB/s con una latenza di 304.8 μs. L'array è rimasto sotto 1 ms fino alla fine della sua corsa o circa 80 IOPS o 5 GB/s, raggiungendo il picco a 80,536 IOPS o 5.03 GB/s con una latenza di 3.1 ms. Per quanto riguarda le massime prestazioni, abbiamo visto l'A300 raggiungere 48,883 IOPS o 3.1 GB/s con una latenza di 4.8 ms.

La nostra prossima serie di benchmark sono i nostri test SQL. In SQL l'A800 ha iniziato a 138,007 IOPS con una latenza di 255.2 μs e ha avuto una latenza inferiore al millisecondo fino a circa 650 IOPS, raggiungendo il picco a 697,603 IOPS con una latenza di 1.5 ms. Questo valore viene confrontato con il picco di 300 IOPS dell'A488,488 con una latenza di 2.1 ms.

In SQL 90-10, l'A800 ha iniziato a 70,867 IOPS con una latenza di 277.3 μs ed è rimasto sotto 1 ms fino a circa 640 IOPS, per poi raggiungere il picco a 730,567 IOPS con una latenza di 1.4 ms. L'A300, invece, ha registrato prestazioni di picco di 416,370 IOPS con una latenza di 2.46 ms

Per SQL 80-20, l'A800 ha iniziato a 56,391 IOPS con una latenza di 256.6μs con una latenza inferiore al millisecondo fino a circa 480 IOPS. L'A800 ha raggiunto il picco di 623,557 IOPS con una latenza di 1.6 ms. Si trattava di circa il doppio dei 300 IOPS dell'A360,642 con una latenza di 2.82 ms.

Passando ai nostri carichi di lavoro Oracle, abbiamo visto l'A800 iniziare a 64,020 IOPS con una latenza di 254.7 μs, rimanendo sotto 1 ms fino a circa 470 IOPS. L'A800 ha raggiunto il picco di 656,438 IOPS con una latenza di 1.9 ms. Ancora una volta, l’A800 ha avuto quasi il doppio delle prestazioni dell’A300, ovvero 340,391 IOPS con una latenza di 3.6 ms.

Con Oracle 90-10, l'A800 ha iniziato a 75,710 IOPS e 242.5μs di latenza. L'array ha gestito prestazioni con latenza inferiore al millisecondo durante l'intero processo, raggiungendo un picco di 759,117 IOPS con una latenza di 839.2 μs, un grande passo avanti rispetto al picco di 300 IOPS dell'A417,869 con una latenza di 1.53 ms.

Con Oracle 80-20, l'A800 ha mantenuto prestazioni di latenza inferiori al millisecondo a partire da 65,505 IOPS a 254.5 μs e con un picco di 666,556 IOPS a 943.1 μs. L'A300 ha raggiunto il picco di 362,499 IOPS e una latenza di 1.62 ms.

Successivamente siamo passati al nostro test di clonazione VDI, completo e collegato. Per l'avvio VDI Full Clone, l'A800 ha avuto una latenza inferiore al millisecondo fino a circa 535 IOPS e ha raggiunto il picco a 579,786 IOPS con una latenza di 1.8 ms. L'A300 ha raggiunto il picco di 300,128 IOPS con una latenza di 3.46 ms.

Con l'accesso iniziale VDI Full Clone, l'A800 è rimasto sotto 1 ms fino a circa 200 IOPS e ha raggiunto il picco a 254,888 IOPS con una latenza di 3.5 ms. Ciò è in contrasto con il picco dell'A300 di 123,984 IOPS con una latenza di 7.26 ms.

Il VDI FC Monday Login ha mostrato l'A800 con prestazioni di latenza inferiore al millisecondo fino a circa 180 IOPS e un picco di 228,346 IOPS con una latenza di 2.2 ms. Si è trattato di un grande salto rispetto ai 300 IOPS dell'A131,628 con una latenza di 3.89 ms.

Passando al VDI Linked Clone (LC), nel test di avvio, l'A800 ha avuto una latenza inferiore a 1 ms quasi per tutto, rompendo la barriera di 1 ms a circa 440 IOPS e raggiungendo un picco di 460,366 IOPS con una latenza di 1.1 ms. L'A300 ha raggiunto il picco di 215,621 IOPS con una latenza di 2.28 ms.

Nell'accesso iniziale VDI LC, l'A800 ha nuovamente registrato un lungo periodo di latenza inferiore al millisecondo fino a circa 158 IOPS, con un picco di 166,224 IOPS con una latenza di 1.5 ms. Questo valore viene confrontato con il picco di 300 IOPS dell'A95,296 con una latenza di 2.68 ms.

Infine, esaminiamo VDI LC Monday Login dove l'A800 ha iniziato a 15,287 IOPS con una latenza di 299.3μs. L'array è rimasto sotto 1 ms fino a circa 130 IOPS e ha raggiunto il picco a 164,684 IOPS con una latenza di 3.1 ms. L'A300 ha raggiunto il picco di 94,722 IOPS con una latenza di 5.4 ms

Conclusione 

NetApp AFF A800 è un array di storage all-flash 4U che punta alle massime prestazioni. L'A800 è dotato di tutta la memoria flash NVMe ed è rivolto ai carichi di lavoro più impegnativi. Oltre a supportare tutti gli NVMe (e gli SSD NVMe fino a 15.3 TB di capacità ciascuno), l'AFF A800 dispone anche di connettività 100GbE opzionale per quando le prestazioni sono un must assoluto. Secondo NetApp, l'AFF A800 dovrebbe essere in grado di raggiungere 1.4 milioni di IOPS con una latenza inferiore a 500μs. Come con altri array NetApp della serie A, l'A800 è alimentato da ONTAP.

Per quanto riguarda le prestazioni, abbiamo eseguito sia i nostri carichi di lavoro di analisi delle applicazioni, costituiti da SQL Server e Sysbench, sia i nostri carichi di lavoro VDBench. Per la nostra analisi del carico di lavoro delle applicazioni, l'A800 ha ottenuto punteggi SQL Server transazionali di 12,835.5 TPS in totale e una latenza media di 5 ms. Si è trattato di un grande passo avanti in termini di prestazioni rispetto ai 300 TPS dell'A12,628.7 e alla latenza media di 8 ms. Con Sysbench, l'A800 ci ha fornito 15,750.8 TPS per 8VM, 22,170.9 TPS per 16VM e 44,149.8 TPS per 32VM, con latenze medie di 16.3 ms per 8VM, 23.1 ms per 16VM e 23.2 ms per 32VM e latenze nello scenario peggiore di 31.3 ms per 8 VM, 48.5 ms per 16 VM e 48.1 ms per 32 VM. In alcuni casi, l'A800 è riuscito a raddoppiare il TPS riducendo la latenza all'incirca della metà.

Per i nostri carichi di lavoro VDBench, NetApp AFF A800 ha continuato a brillare. I punti salienti includono 1.2 milioni di IOPS in lettura 4K, 439 IOPS in scrittura 4K, 18.9 GB/s in lettura sequenziale a 64K e 5.03 GB/s in scrittura a 64K. Tutti questi numeri sono stati raggiunti con una latenza inferiore a 5 ms. Nei nostri test SQL, l'array ha raggiunto 698 IOPS, 731 IOPS in SQL 90-10 e 624 IOPS in SQL 80-20. In Oracle, l'A800 ha raggiunto 656 IOPS e sia in Oracle 90-10 che in Oracle 80-20, l'array ha avuto una latenza inferiore al millisecondo con punteggi di picco rispettivamente di 759 IOPS e 667 IOPS. Nei nostri test VDI Clone, l'A800 è stato in grado di raggiungere punteggi di avvio di 580 IOPS per il clone completo e 460 IOPS per il clone collegato. La latenza di picco più alta durante tutti i nostri test è stata di soli 4.4 ms.

Come i sistemi ONTAP di fascia media che abbiamo esaminato in precedenza, NetApp colpisce ancora una volta con l'A800 focalizzato sulle aziende. Il profilo prestazionale è molto forte, collocandosi al vertice della famiglia ONTAP. Come notato, questo test è il lavoro del canale in fibra ottica della varietà da giardino; dobbiamo ancora tirarci indietro cosa è disponibile nella configurazione NVMeoF, che dovrebbe essere molto divertente. Quando si esamina l'hardware da revisionare, a volte c'è la fastidiosa preoccupazione che i fornitori di storage più vecchi non siano così veloci e flessibili come le startup e che il "codice legacy" non riesca a tenere il passo. Non vediamo segni di questi problemi in nessuna parte del portafoglio NetApp e, inoltre, l'A800 abbraccia NVMe e NVMeoF in modi pratici per l'azienda senza sacrificare per anni le funzionalità di protezione e disponibilità dei dati inerenti a ONTAP. NetApp ha un'ottima padronanza di NVMe nell'A800, siamo entusiasti di vedere come questi apprendimenti si faranno strada negli altri array.

Serie NetApp AFF

Discuti questa recensione

Iscriviti alla newsletter di StorageReview