Startseite Unternehmen NetApp AFF A800 Testbericht

NetApp AFF A800 Testbericht

NetApp A800

Das AFF A800 ist das erstklassige ONTAP-All-Flash-Speicher-Array von NetApp, das bei seiner Markteinführung branchenweit erstmals durchgängiges NVMe/FC über 32 Gb FC sowie 100 GbE-Konnektivität bot. Bisher haben wir uns durch die All-Flash-AFF-Reihe gearbeitet, angefangen bei den potenten A200 (inzwischen durch die A220 ersetzt) ​​sowie die A300. Beide Geräte, die wir zuvor getestet haben, wurden mit dem Editor's Choice Award ausgezeichnet. Heute werfen wir einen Blick auf das NVMe-basierte A800-Kraftpaket, das die gleichen ONTAP-Vorteile der zuvor getesteten Modelle sowie eine exponentiell schnellere Leistung und geringere Latenz bietet. Während sich dieser erste Test auf die Systemleistung über Fibre Channel konzentriert, werden sich die folgenden Artikel mit der End-to-End-NVMe-over-Fabric-Unterstützung (NVMeoF) des A800 befassen.


Das AFF A800 ist das erstklassige ONTAP-All-Flash-Speicher-Array von NetApp, das bei seiner Markteinführung branchenweit erstmals durchgängiges NVMe/FC über 32 Gb FC sowie 100 GbE-Konnektivität bot. Bisher haben wir uns durch die All-Flash-AFF-Reihe gearbeitet, angefangen bei den potenten A200 (inzwischen durch die A220 ersetzt) ​​sowie die A300. Beide Geräte, die wir zuvor getestet haben, wurden mit dem Editor's Choice Award ausgezeichnet. Heute werfen wir einen Blick auf das NVMe-basierte A800-Kraftpaket, das die gleichen ONTAP-Vorteile der zuvor getesteten Modelle sowie eine exponentiell schnellere Leistung und geringere Latenz bietet. Während sich dieser erste Test auf die Systemleistung über Fibre Channel konzentriert, werden sich die folgenden Artikel mit der End-to-End-NVMe-over-Fabric-Unterstützung (NVMeoF) des A800 befassen.

Im Gegensatz zum A200 und A300, die für verschiedene Segmente des Mittelklassemarkts entwickelt wurden, ist der A800 für die Workloads konzipiert, die die meiste Leistung erfordern (z. B. KI und Deep Leaning), und umfasst gleichzeitig die robusten Unternehmensdatendienste von ONTAP bekannt für. Zur Verdeutlichung: NetApp verfügt über eine Reihe wirklich schneller Speicher in der EF-All-Flash-Familie, beispielsweise im Midrange-Bereich EF570 Wir haben es zuvor überprüft. Zurück zum A800: NetApp behauptet, dass das System mit einem HA-Paar 1.3 Millionen IOPS bei einer Latenz von weniger als 500 μs und einem Durchsatz von bis zu 34 GB/s erreichen kann. Im Maßstab bedeutet dies, dass ein NAS-Cluster bis zu 11.4 Millionen IOPS bei einer Latenz von 1 ms und einem Durchsatz von 300 GB/s liefern kann. Ein SAN-Cluster kann bis zu 7.8 Mio. IOPS bei einer Latenz von 500 µs und einem Durchsatz von 204 GB/s liefern.

Wie die übrigen Systeme der AFF A-Serie kann der NVMe A800 auf 24 (12 HA-Paare) 4U-Dual-Controller-Knoten in einem Cluster in NAS-Konfiguration skaliert werden. Da es sich um ein NVMe-basiertes System handelt, gibt es bei der Laufwerksskalierung einige Nuancen. Der A300 der Mittelklasse unterstützt beispielsweise 4608 Laufwerke, während der A800 bei 2880 Laufwerken die Höchstzahl erreicht. Auch wenn dies bei der Bereitstellung wahrscheinlich kein funktionales Problem darstellt, möchten wir dies nur hervorheben, um darauf hinzuweisen, dass NVMe-basierte Systeme bei der Betrachtung von JBOD-Erweiterungsregalen andere technische Herausforderungen haben als SAS-basierte Systeme, daher können wir nicht einfach davon ausgehen, dass mit zunehmender Produktlinie alles größer wird. In einer SAN-Konfiguration lässt sich der NVMe A800 auf 12 Knoten (6 HA-Paare) skalieren und unterstützt 1,440 Laufwerke. Wenn Benutzer jedoch NVMe-SSDs mit 15.3 TB nutzen, können sie bei einer Grundfläche von 2.5 HE auf bis zu 4 PB skalieren. Bei aktivierter Dateneffizienz (unter der Annahme von 5:1) unterstützt der A800 über 315 PB in einem 24-Knoten-NAS-Cluster und 160 TB in einem SAN-Cluster.

Während NetApp in anderen AFF-Systemen Front-End-NVMe-Unterstützung ermöglicht hat, bietet der A800 eine sogenannte End-to-End-NVMe-Unterstützung. Wie bereits erwähnt, werden wir in diesem Testbericht nicht näher darauf eingehen, was dies bedeutet. Es genügt zu sagen, dass der A800 das erste All-Flash-NVMe-Array ist, das dies erreicht. Tatsächlich bedeutet dies, dass Unternehmen heute von der aufkommenden Welle an NVMeoF-Funktionen profitieren und gleichzeitig ihre eher traditionellen Workloads über FC bedienen können. Bisher waren Organisationen, die die Vorteile von NVMeoF nutzen wollten, im Allgemeinen auf Bereitstellungen vom Typ „Wissenschaftsprojekte“ beschränkt, die zwar schnell waren, aber hinsichtlich Skalierung und Datendiensten Einschränkungen aufwiesen. Die Implementierung von NetApp behebt diese Mängel und bietet gleichzeitig Unterstützung für die Standard-Konnektivitätsoptionen sowohl in FC als auch in Ethernet.

Natürlich können wir nicht über den A800 sprechen, ohne die Cloud-Konnektivität und das hervorzuheben NetApp Data Fabric. Zu ONTAP gehört eine umfassende Konnektivität zu führenden Cloud-Anbietern, die es Kunden ermöglicht, ihre Daten dort zu platzieren, wo es am sinnvollsten ist, sei es lokal auf dem A800 oder anderswo. NetApp unterstützt Cloud- und Multi-Cloud-Verbindungen mit Amazon Web Services, Microsoft Azure, Google Cloud Platform und anderen. Durch die umfassende Cloud-Unterstützung erhalten NetApp-Kunden die Flexibilität, die sie bei der Verwaltung ihres Datenfußabdrucks benötigen, und die Flexibilität, Daten nach Bedarf zu verschieben, um von der Cloud-Wirtschaftlichkeit, neuen Funktionen oder Formtypen usw. zu profitieren.

Unser spezieller Aufbau besteht aus einem A800 mit 24 x 1.92 TB NVMe-SSDs mit zwei 32-Gb-FC-Ports mit vier Ports pro Controller (insgesamt 8 Ports) und installiertem ONTAP 9.5RC1.

NetApp A800-Spezifikationen

Maximale Skalierung 2–24 Knoten (12 HA-Paare)
Maximale SSD 2880
Maximale effektive Kapazität 316.3PB
Pro System aktiv-aktiv Dual-Controller
Controller-Formfaktor 4U
PCIe-Erweiterungssteckplätze 8
FC-Zielports (32 GB automatische Bereichswahl) 32
FC-Zielports (16 GB automatische Bereichswahl) 32
100-GbE-Ports (40-GbE-Autoranging) 20
10GbE-Ports 32
Unterstützt Speichernetzwerke NVMe/FC
FC
iSCSI
NFS
PNFs
​CIFS/SMB
OS Version ONTAP 9.4 RC1 oder höher
Regale und Medien NVMe-Laufwerkspakete
Unterstütztes Host-/Client-Betriebssystem Windows 2000
Windows Server 2003
Windows Server 2008
Windows Server 2012
Windows Server 2016
Linux
Oracle Solaris
AIX
HP-UX
Mac OS
VMware
​ESX

Designen und Bauen

Das NetApp AFF A800 ist ein 4U-Array, das dem Rest der AFF-Serie optisch sehr ähnlich ist. Unter der eleganten Blende mit Belüftung und NetApp-Branding befinden sich zwei Reihen blauer 2.5-Zoll-Laufwerksschächte für die SSDs.

Was die NVMe-Laufwerke selbst betrifft, unterstützt NetApp eine breite Palette an Kapazitätsoptionen, darunter SSDs mit 1.9 TB, 3.8 TB, 7.6 TB und 15.3 TB. Zum jetzigen Zeitpunkt liefert NetApp alle diese Laufwerke als selbstverschlüsselnde Laufwerke (SED) mit AES-256-Verschlüsselung aus. Darüber hinaus ist für Systeme, die mit ONTAP 9.4 initialisiert wurden, die schnelle Nullung des Laufwerks aktiviert.

Auf der Rückseite des Geräts befinden sich zwei Controller: Einer ist wie ein Spiegelbild übereinander gestapelt. Unsere Konfiguration umfasst vier verschiedene Arten von Schnittstellen für die Konnektivität. Diese vier Karten befinden sich in den PCIe-Steckplätzen ganz rechts und in der Mitte. Dazu gehören eine 32-GbE-FC-Karte mit vier Ports (oben links), eine 25-GbE-Netzwerkkarte mit zwei Ports (unten links), eine 100-GbE-Netzwerkkarte mit zwei Ports (oben rechts) und eine 10-GbE-Netzwerkkarte mit vier Ports (unten rechts).

Wenn wir einen der Controller entfernen, können wir die Verbindungen zum Rest des Geräts sowie die Lüfter sehen, die die Vorderseite des Controllers säumen.

Auf der linken Seite des hinteren Controllers befinden sich zwei redundante Netzteile für jeden Controller sowie die HA-Verbindungsports und Cluster-Verbindungsports. Auf der rechten Unterseite jedes Controllers befinden sich außerdem 1HA- und Cluster-Interconnect-Ports. Der Großteil des Rests wird von PCIe-Steckplätzen (fünf) belegt, die wie in unserer Konfiguration mit 100-GbE-, 10-GbE- oder 32-Gb-Fibre-Channel-Netzwerkanschlüssen oder einer Kombination der oben genannten bestückt werden können. In der Mitte unten befinden sich die Verwaltungsanschlüsse und zwei USB-3.0-Anschlüsse.

Der Controller lässt sich unglaublich einfach öffnen und ist daher sehr wartungsfreundlich.

Wir können die beiden CPUs, 20 DIMM-Steckplätze (bestückt mit 20 x 32 GB DIMMs RAM) und die beiden NVDIMM-Steckplätze sehen. Auch die PCIe-Netzwerk-AICs sind von hier aus leicht zugänglich.

Management

Die ONTAP-GUI hat im Laufe der Jahre einen langen Weg zurückgelegt, von einer Java-fähigen GUI in der Version 8.2 und älter bis hin zum modernen und gut gestalteten webgesteuerten ONTAP 9.5. NetApp hat erhebliche Verbesserungen an der GUI vorgenommen, sodass sie nicht nur für alltägliche Verwaltungsfunktionen nutzbar ist.

Dashboard:

Nach der Anmeldung werden Sie vom Dashboard begrüßt, das Ihnen einen kurzen Überblick über die Vorgänge im System gibt. Das Dashboard ist, soweit Sie es sehen können, ziemlich einfach. Jedes der Widgets ermöglicht einen schnellen Überblick über Warnungen, Leistung, Kapazität, Effizienz und Schutz. Für eine detailliertere Anzeige und langfristige Trendanalyse wird die Verwendung des (kostenlosen) OnCommand Unified Manager für ONTAP-Metriken von NetApp empfohlen.

Cloud-Stufe:

Durch die Hinzufügung der NetApp Cloud-Option Fabric Pool vereinfacht die GUI die Verbindung zu öffentlichen Clouds, einschließlich NDAS, sowie zu lokalem StorageGRID.

SVMs:

Auf dieser Registerkarte können Sie alle Datenprotokoll-SVMs im ONTAP-Cluster erstellen, bearbeiten, löschen und starten/stoppen sowie verschiedene Einstellungen bearbeiten.

Aggregate- und Speicherpools:

Die Registerkarten „Aggregate“ und „Storage Pool“ ermöglichen die einfache Erstellung und Verwaltung von Aggregaten und Storage Pools.

Volumes und LUNs:

Die Volume- und LUN-Administratorseite bietet Ihnen vielfältige Möglichkeiten zum Erstellen und Verwalten von FlexVols, FlexGroups und LUNs und sogar Igroups und Zuordnungen für jede der SVMs.

QoS:

QoS hat sich bei ONTAP im Laufe der Jahre stark weiterentwickelt, da Sie nun für jede Arbeitslast eine Ober- und Untergrenze konfigurieren und diese so konfigurieren können, dass sie sich an Ihre sich ändernden Arbeitslasten anpassen. QoS kann auf verschiedene Objekte innerhalb von ONTAP angewendet werden, wie z. B. Volumes, Dateien und LUNs sowie einige andere Objekte.

Netzwerkkonfiguration:

Die gesamte grundlegende Netzwerkkonfiguration und -verwaltung ist in der GUI verfügbar: IP-Bereiche, Broadcast-Domänen, Ports, LIFs, FC und jetzt NVMe.

Peering:

Bis zu den letzten Versionen von ONTAP mussten Sie Peering-Beziehungen ausschließlich über die CLI erstellen; Jetzt können Sie jedoch auch Cluster-Peers und sogar SVM-Peers in der GUI erstellen. Sobald Sie das Peering konfiguriert haben, können Sie sogar direkt im Volume-Erstellungsassistenten eine SnapMirror-Beziehung erstellen.

Cluster-Updates:

ONTAP-Upgrades werden immer einfacher. Eine kleine, aber sehr nützliche Funktion, die in 9.4 hinzugefügt wurde, macht es noch einfacher, ONTAP-Updates durchzuführen. Natürlich lieben wir alle die Befehlszeile, aber sie macht es wirklich einfach, mit Kunden zusammenzuarbeiten, um ihre Dateien zu aktualisieren. Keine http/ftp-Server mehr, mit denen man herumspielen muss; Laden Sie einfach die .tgz-Datei direkt hoch und führen Sie das automatische Cluster-Update aus.

Kennzahlen

Hinsichtlich der Leistung vergleichen wir den A800 mit dem A300. Dies wird verwendet, um zu zeigen, wie gut die Leistung der NetApp AFF-Modelle mit dem Aufstieg in der Familie skaliert. In allen unseren Tests haben wir Datenreduzierungsdienste aktiviert, was bedeutet, dass Inline-Deduplizierung und -Komprimierung aktiviert sind. Wie wir in früheren Testberichten festgestellt haben, bietet NetApp ONTAP hervorragende DR-Funktionen mit minimalem Overhead oder Leistungseinbußen.

Die Konfiguration unseres NetApp AFF A800 umfasste 8 32-GB-FC-Ports mit 24 installierten 1.92-TB-NVMe-SSDs. Von den 24 in unserem A1.92 eingesetzten SSDs mit 800 TB haben wir sie in zwei RAID-DP-Aggregate aufgeteilt, wobei 11 SSDs verwendet werden und eine als Hot-Spare dient. Das Array wurde über 32 Gbit über zwei Brocade G620-Switches verbunden, die dann über 16 16-Gbit-Verbindungen zu unseren Dell PowerEdge R740xd-Servern verfügten.

Für unsere synthetischen Benchmarks mit VDbench und Sysbench haben wir 32 600-GB-Volumes gleichmäßig über Controller und Festplattengruppen verteilt bereitgestellt. Für SQL Server haben wir zusätzlich vier 1.1-TB-Volumes verwendet, zwei pro Controller, um die für das Benchmarking verwendeten VMs aufzunehmen. Nach Berücksichtigung der Datenreduzierung belief sich der Gesamt-Footprint, der während unserer Tests verwendet wurde, auf eine Auslastung von knapp 50 % für jedes Aggregat.

SQL Server-Leistung

Das Microsoft SQL Server OLTP-Testprotokoll von StorageReview verwendet den aktuellen Entwurf des Benchmark C (TPC-C) des Transaction Processing Performance Council, einen Online-Transaktionsverarbeitungs-Benchmark, der die Aktivitäten in komplexen Anwendungsumgebungen simuliert. Der TPC-C-Benchmark kommt der Messung der Leistungsstärken und Engpässe der Speicherinfrastruktur in Datenbankumgebungen näher als synthetische Leistungsbenchmarks.

Jede SQL Server-VM ist mit zwei vDisks konfiguriert: einem 100-GB-Volume für den Start und einem 500-GB-Volume für die Datenbank und Protokolldateien. Aus Sicht der Systemressourcen haben wir jede VM mit 16 vCPUs und 64 GB DRAM konfiguriert und den LSI Logic SAS SCSI-Controller genutzt. Während unsere zuvor getesteten Sysbench-Workloads die Plattform sowohl in Bezug auf Speicher-I/O als auch in Bezug auf die Kapazität ausgelastet haben, prüft der SQL-Test die Latenzleistung.

Dieser Test verwendet SQL Server 2014, das auf Windows Server 2012 R2-Gast-VMs ausgeführt wird, und wird durch Dells Benchmark Factory für Datenbanken belastet. Während wir diesen Benchmark traditionell dazu nutzen, große Datenbanken mit einer Größe von 3,000 auf lokalem oder gemeinsam genutztem Speicher zu testen, konzentrieren wir uns in dieser Iteration darauf, vier Datenbanken mit einer Größe von 1,500 gleichmäßig auf unseren Servern zu verteilen.

SQL Server-Testkonfiguration (pro VM)

  • Windows Server 2012 R2
  • Speicherbedarf: 600 GB zugewiesen, 500 GB genutzt
  • SQL Server 2014
    • Datenbankgröße: Maßstab 1,500
    • Virtuelle Client-Auslastung: 15,000
    • RAM-Puffer: 48 GB
  • Testdauer: 3 Stunden
    • 2.5 Stunden Vorkonditionierung
    • 30-minütiger Probezeitraum

Für unsere SQL Server-Transaktionsleistung hatte der A800 einen Gesamtwert von 12,635.5 TPS, wobei einzelne VMs von 3,158.6 TPS auf 3,159.3 TPS liefen (ein schöner kleiner Anstieg gegenüber den 300 TPS des A12,628.7 und den 200 TPS des A12,583.8).

Wenn wir uns die durchschnittliche Latenz von SQL Server ansehen, sehen wir eine größere Verbesserung beim A800, da sie auf insgesamt 5 ms und auf allen VMs auf 5 ms gesunken ist (viel besser als die 300 ms des A8 und die 200 ms des A25).

Sysbench MySQL-Leistung

Unser erster Benchmark für lokale Speicheranwendungen besteht aus einer Percona MySQL OLTP-Datenbank, die über SysBench gemessen wird. Dieser Test misst die durchschnittliche TPS (Transaktionen pro Sekunde), die durchschnittliche Latenz und auch die durchschnittliche 99. Perzentil-Latenz.

Jede Sysbench-VM ist mit drei vDisks konfiguriert: eine für den Start (~92 GB), eine mit der vorgefertigten Datenbank (~447 GB) und die dritte für die zu testende Datenbank (270 GB). Aus Sicht der Systemressourcen haben wir jede VM mit 16 vCPUs und 60 GB DRAM konfiguriert und den LSI Logic SAS SCSI-Controller genutzt.

Sysbench-Testkonfiguration (pro VM)

  • CentOS 6.3 64-Bit
  • Percona XtraDB 5.5.30-rel30.1
    • Datenbanktabellen: 100
    • Datenbankgröße: 10,000,000
    • Datenbankthreads: 32
    • RAM-Puffer: 24 GB
  • Testdauer: 3 Stunden
    • 2 Stunden Vorkonditionierung von 32 Threads
    • 1 Stunde 32 Threads

Für Sysbench haben wir mehrere Sätze von VMs getestet, darunter 8, 16 und 32, und wir haben Sysbench mit aktivierter Datenreduzierung ausgeführt. Der A800 konnte 15,750.8 TPS für 8VM, 22,170.9 TPS für 16VM und 44,149.8 TPS für 32VM erreichen. Diese sind viel höher als beim Vorgänger und verdoppeln fast die Leistung des A300 mit 32 VM und 22,313 TPS.

Mit der durchschnittlichen Sysbench-Latenz erreichte der A800 16.3 ms für 8 VM, 23.1 ms für 16 VM und 23.2 ms für 32 VM. Das ist viel besser als bei den kleineren AFF-Modellen.

In unserem Worst-Case-Szenario (99. Perzentil) erreichte die Latenz des A800 31.3 ms für 8 VM, 48.5 ms für 16 VM und 48.1 ms für 32 VM.

VDBench-Workload-Analyse

Wenn es um das Benchmarking von Speicher-Arrays geht, sind Anwendungstests am besten und synthetische Tests stehen an zweiter Stelle. Obwohl sie keine perfekte Darstellung der tatsächlichen Arbeitslasten darstellen, helfen synthetische Tests dabei, Speichergeräte mit einem Wiederholbarkeitsfaktor zu vergleichen, der es einfach macht, Konkurrenzlösungen direkt miteinander zu vergleichen. Diese Workloads bieten eine Reihe unterschiedlicher Testprofile, die von „Vier-Ecken“-Tests über allgemeine Tests der Datenbankübertragungsgröße bis hin zu Trace-Erfassungen aus verschiedenen VDI-Umgebungen reichen. Alle diese Tests nutzen den gemeinsamen vdBench-Workload-Generator mit einer Skript-Engine, um Ergebnisse über einen großen Computing-Testcluster zu automatisieren und zu erfassen. Dadurch können wir dieselben Arbeitslasten auf einer Vielzahl von Speichergeräten wiederholen, einschließlich Flash-Arrays und einzelnen Speichergeräten.

Profile:

  • 4K Random Read: 100 % Read, 128 Threads, 0-120 % Iorate
  • 4K Random Write: 100 % Schreiben, 64 Threads, 0-120 % Iorate
  • 64K sequentielles Lesen: 100 % Lesen, 16 Threads, 0-120 % Leserate
  • 64K Sequentielles Schreiben: 100 % Schreiben, 8 Threads, 0-120 % Iorate
  • Synthetische Datenbank: SQL und Oracle
  • VDI-Vollklon- und Linked-Clone-Traces

Ausgehend von der maximalen zufälligen 4K-Leseleistung startete der A800 mit 118,511 IOPS und einer Latenz von 217.5 μs. Der A800 blieb unter 1 ms, bis er etwa 1.07 Millionen IOPS erreichte, und erreichte anschließend mit 1,219.829 IOPS bei einer Latenz von 3.3 ms seinen Höhepunkt. Dies war ein deutlicher Unterschied im Vergleich zur Spitzenleistung des A300 von 635,342 IOPS bei einer Latenz von 6.4 ms.

Betrachtet man die 4K-Schreibleistung, startete der A800 mit 45,676 IOPS und einer Latenz von 213.1 μs. Der A800 hatte eine Latenzleistung von weniger als einer Millisekunde bis etwa 410 IOPS und erreichte dann mit einer Latenz von 439 ms einen Spitzenwert von etwa 4.4 IOPS, bevor er etwas abfiel. Im Gegensatz dazu erreichte der A300 eine Spitzenleistung von 208,820 IOPS bei einer Latenz von 9.72 ms.

Bei der Umstellung auf sequentielle Arbeitslasten betrachten wir die Spitzenleistung bei 64K-Lesevorgängen. Hier startete der A800 mit 29,589 IOPS oder 1.85 GB/s bei einer Latenz von 166.1 μs. Der A300 hatte eine Latenz von weniger als einer Millisekunde bis etwa 300 IOPS oder 18.5 GB/s und erreichte anschließend einen Spitzenwert von 302,668 IOPS oder 18.9 GB/s bei einer Latenz von 1.7 ms. Der A300 erreichte einen Spitzenwert von etwa 84,766 IOPS oder 5.71 GB/s mit einer Latenz von 3.64 ms, bevor er etwas abfiel.

Bei einer sequentiellen Schreibleistung von 64 KB startete der A800 mit 8,103 IOPS oder 506.4 MB/s bei einer Latenz von 304.8 μs. Das Array blieb bis zum Ende seines Laufs unter 1 ms oder etwa 80 IOPS oder 5 GB/s und erreichte anschließend einen Spitzenwert von 80,536 IOPS oder 5.03 GB/s mit einer Latenz von 3.1 ms. Für die Spitzenleistung erreichte der A300 48,883 IOPS oder 3.1 GB/s bei einer Latenz von 4.8 ms.

Unsere nächsten Benchmarks sind unsere SQL-Tests. In SQL startete der A800 bei 138,007 IOPS mit einer Latenz von 255.2 μs und hatte eine Latenz von weniger als einer Millisekunde bis etwa 650 IOPS, um dann mit 697,603 IOPS bei einer Latenz von 1.5 ms seinen Höhepunkt zu erreichen. Dies wird mit dem Spitzenwert des A300 von 488,488 IOPS mit einer Latenz von 2.1 ms verglichen.

In SQL 90-10 startete der A800 mit 70,867 IOPS bei einer Latenz von 277.3 μs und blieb unter 1 ms, bis er etwa 640 IOPS erreichte, und erreichte anschließend seinen Höhepunkt bei 730,567 IOPS mit einer Latenz von 1.4 ms. Der A300 hingegen erreichte eine Spitzenleistung von 416,370 IOPS bei einer Latenz von 2.46 ms

Für SQL 80-20 startete der A800 bei 56,391 IOPS bei einer Latenz von 256.6 μs mit einer Latenz von weniger als einer Millisekunde bis zu etwa 480 IOPS. Der A800 erreichte mit einer Latenz von 623,557 ms einen Spitzenwert von 1.6 IOPS. Das war etwa das Doppelte der 300 IOPS des A360,642 mit einer Latenz von 2.82 ms.

Als wir uns unseren Oracle-Workloads zuwandten, sahen wir, dass der A800 bei 64,020 IOPS mit einer Latenz von 254.7 μs startete und bis zu etwa 1 IOPS unter 470 ms blieb. Der A800 erreichte einen Spitzenwert von 656,438 IOPS bei einer Latenz von 1.9 ms. Auch hier erzielte der A800 mit 300 IOPS bei einer Latenz von 340,391 ms fast die doppelte Leistung des A3.6.

Beim Oracle 90-10 startete der A800 mit 75,710 IOPS und einer Latenz von 242.5 μs. Das Array schaffte durchgehend eine Latenzleistung von unter einer Millisekunde und erreichte einen Spitzenwert von 759,117 IOPS bei einer Latenz von 839.2 μs – ein großer Fortschritt gegenüber dem Spitzenwert des A300 von 417,869 IOPS bei einer Latenz von 1.53 ms.

Mit dem Oracle 80-20 behielt der A800 eine Latenzleistung von unter einer Millisekunde bei, beginnend bei 65,505 IOPS bei 254.5 μs Latenz und einem Spitzenwert von 666,556 IOPS bei 943.1 μs. Der A300 erreichte einen Spitzenwert von 362,499 IOPS und einer Latenz von 1.62 ms.

Als nächstes wechselten wir zu unserem VDI-Klontest, vollständig und verknüpft. Beim VDI-Full-Clone-Boot hatte der A800 eine Latenz von unter einer Millisekunde bis etwa 535 IOPS und erreichte anschließend einen Spitzenwert von 579,786 IOPS mit einer Latenz von 1.8 ms. Der A300 erreichte einen Spitzenwert von 300,128 IOPS mit einer Latenz von 3.46 ms.

Mit dem VDI Full Clone Initial Login blieb der A800 bis zu etwa 1 IOPS unter 200 ms und erreichte einen Spitzenwert von 254,888 IOPS mit einer Latenz von 3.5 ms. Im Gegensatz dazu erreichte der A300 einen Spitzenwert von 123,984 IOPS mit einer Latenz von 7.26 ms.

Beim VDI FC Monday Login zeigte der A800 eine Latenzleistung von unter einer Millisekunde bis etwa 180 IOPS und einen Spitzenwert von 228,346 IOPS mit einer Latenz von 2.2 ms. Dies war ein großer Sprung über die 300 IOPS des A131,628 mit einer Latenz von 3.89 ms.

Beim Wechsel zum VDI Linked Clone (LC) hatte der A800 im Boot-Test fast durchgehend eine Latenz von unter 1 ms, durchbrach die 1-ms-Grenze bei etwa 440 IOPS und erreichte einen Spitzenwert von 460,366 IOPS mit einer Latenz von 1.1 ms. Der A300 erreichte einen Spitzenwert von 215,621 IOPS mit einer Latenz von 2.28 ms.

Bei der VDI LC-Erstanmeldung hatte der A800 erneut eine lange Latenzzeit von unter einer Millisekunde, bis er etwa 158 IOPS erreichte und mit 166,224 IOPS bei einer Latenz von 1.5 ms seinen Höhepunkt erreichte. Dies wird mit dem Spitzenwert des A300 von 95,296 IOPS mit einer Latenz von 2.68 ms verglichen.

Abschließend werfen wir einen Blick auf VDI LC Monday Login, wo der A800 mit 15,287 IOPS bei einer Latenz von 299.3 μs startete. Das Array blieb bis zu etwa 1 IOPS unter 130 ms und erreichte einen Spitzenwert von 164,684 IOPS bei einer Latenz von 3.1 ms. Der A300 erreichte einen Spitzenwert von 94,722 IOPS mit einer Latenz von 5.4 ms

Schlussfolgerung 

Das NetApp AFF A800 ist ein 4U-All-Flash-Speicher-Array, bei dem höchste Leistung im Vordergrund steht. Der A800 verfügt über kompletten NVMe-Flash und ist auf die anspruchsvollsten Arbeitslasten ausgelegt. Neben der Unterstützung aller NVMe (und NVMe-SSDs mit jeweils bis zu 15.3 TB Kapazität) verfügt der AFF A800 auch über optionale 100-GbE-Konnektivität, wenn Leistung ein absolutes Muss ist. Laut NetApp soll der AFF A800 1.4 Millionen IOPS bei einer Latenz von unter 500 μs erreichen können. Wie andere NetApp-Arrays der A-Serie wird auch der A800 von ONTAP betrieben.

Aus Leistungsgründen haben wir sowohl unsere Anwendungsanalyse-Workloads, bestehend aus SQL Server und Sysbench, als auch unsere VDBench-Workloads ausgeführt. Für unsere Anwendungs-Workload-Analyse erzielte der A800 transaktionale SQL Server-Werte von insgesamt 12,835.5 TPS und eine durchschnittliche Latenz von 5 ms. Dies war eine große Leistungssteigerung gegenüber den 300 TPS und der durchschnittlichen Latenz des A12,628.7 von 8 ms. Mit Sysbench lieferte uns der A800 15,750.8 TPS für 8VM, 22,170.9 TPS für 16VM und 44,149.8 TPS für 32VM, mit durchschnittlichen Latenzen von 16.3 ms für 8VM, 23.1 ms für 16VM und 23.2 ms für 32VM und Latenzen im schlimmsten Fall von 31.3 ms für 8 VM, 48.5 ms für 16 VM und 48.1 ms für 32 VM. In einigen Fällen konnte der A800 die TPS verdoppeln und gleichzeitig die Latenz etwa halbieren.

Bei unseren VDBench-Workloads glänzte der NetApp AFF A800 weiterhin. Zu den Highlights zählen 1.2 Millionen IOPS beim 4K-Lesen, 439K IOPS beim 4K-Schreiben, 18.9 GB/s beim sequentiellen 64K-Lesen und 5.03 GB/s beim 64K-Schreiben. Alle diese Zahlen wurden mit einer Latenzzeit von weniger als 5 ms erreicht. In unseren SQL-Tests erreichte das Array 698 IOPS, 731 IOPS in SQL 90-10 und 624 IOPS in SQL 80-20. In Oracle erreichte der A800 656 IOPS und sowohl in Oracle 90-10 als auch in Oracle 80-20 hatte das Array durchgehend eine Latenz von unter einer Millisekunde mit Spitzenwerten von 759 IOPS bzw. 667 IOPS. In unseren VDI-Clone-Tests konnte der A800 Startwerte von 580 IOPS für Full Clone und 460 IOPS für Linked Clone erreichen. Die höchste Spitzenlatenz in allen unseren Tests betrug nur 4.4 ms.

Wie die ONTAP-Systeme für den Mittelstand, die wir zuvor getestet haben, schlägt NetApp mit dem auf Unternehmen ausgerichteten A800 erneut ein Volltreffer. Das Leistungsprofil ist sehr stark und nimmt eine Spitzenposition in der ONTAP-Familie ein. Wie bereits erwähnt, handelt es sich bei diesem Test um die Fibre-Channel-Arbeit im Garten; Wir müssen uns noch zurückziehen was in der NVMeoF-Konfiguration verfügbar ist, was viel Spaß machen sollte. Wenn man sich die zu prüfende Hardware anschaut, besteht manchmal die Sorge, dass ältere Speicheranbieter nicht so schnell und flexibel sind wie die Start-ups und „Legacy-Code“ nicht mithalten kann. Wir sehen nirgendwo im NetApp-Portfolio Anzeichen dieser Probleme, und darüber hinaus umfasst der A800 NVMe und NVMeoF auf eine Weise, die für das Unternehmen praktisch ist, ohne auf die seit Jahren inhärenten Datenschutz- und Verfügbarkeitsfunktionen von ONTAP zu verzichten. NetApp beherrscht NVMe im A800 hervorragend. Wir sind gespannt, wie sich diese Erkenntnisse in den anderen Arrays niederschlagen.

NetApp AFF-Serie

Besprechen Sie diese Rezension

Melden Sie sich für den StorageReview-Newsletter an