De AFF A800 is de top-of-the-line ONTAP all-flash storage-array van NetApp, die bij de lancering een primeur in de branche bood, end-to-end NVMe/FC over 32Gb FC, evenals 100GbE-connectiviteit. Tot op heden hebben we ons een weg gebaand door de all-flash AFF line-up, te beginnen met de krachtige A200 (sindsdien vervangen door de A220) evenals de A300. Beide eenheden die we eerder hebben beoordeeld, hebben Editor's Choice-prijzen gewonnen. Vandaag zullen we kijken naar de op NVMe gebaseerde A800-krachtpatser die dezelfde ONTAP-voordelen biedt als de eerder beoordeelde modellen, maar ook exponentieel snellere prestaties en lagere latentie. Hoewel deze eerste beoordeling zich richt op systeemprestaties via Fibre Channel, gaan volgende artikelen dieper in op de end-to-end NVMe over Fabrics (NVMeoF)-ondersteuning van de A800.
De AFF A800 is de top-of-the-line ONTAP all-flash storage-array van NetApp, die bij de lancering een primeur in de branche bood, end-to-end NVMe/FC over 32Gb FC, evenals 100GbE-connectiviteit. Tot op heden hebben we ons een weg gebaand door de all-flash AFF line-up, te beginnen met de krachtige A200 (sindsdien vervangen door de A220) evenals de A300. Beide eenheden die we eerder hebben beoordeeld, hebben Editor's Choice-prijzen gewonnen. Vandaag zullen we kijken naar de op NVMe gebaseerde A800-krachtpatser die dezelfde ONTAP-voordelen biedt als de eerder beoordeelde modellen, maar ook exponentieel snellere prestaties en lagere latentie. Hoewel deze eerste beoordeling zich richt op systeemprestaties via Fibre Channel, gaan volgende artikelen dieper in op de end-to-end NVMe over Fabrics (NVMeoF)-ondersteuning van de A800.
In tegenstelling tot de A200 en A300 die zijn gebouwd voor verschillende segmenten van de midrange-markt, is de A800 ontworpen voor de workloads die de meeste prestaties vereisen (zoals AI en Deep Leaning), terwijl hij ook de robuuste set van enterprise dataservices omvat die ONTAP is. bekend om. Voor alle duidelijkheid: NetApp heeft een reeks echt razendsnelle storage in de EF all-flash-familie, zoals de midrange EF570 we hebben eerder beoordeeld. Terug naar de A800, beweert NetApp dat het systeem 1.3 miljoen IOPS kan halen bij een latentie van minder dan 500 μs en een doorvoer tot 34 GB/s met een HA-paar. Op schaal betekent dit dat een NAS-cluster tot 11.4 miljoen IOPS kan leveren bij een latentie van 1 ms en een doorvoer van 300 GB/s. Een SAN-cluster kan tot 7.8 miljoen IOPS leveren bij een latentie van 500 µs en een doorvoer van 204 GB/s.
Net als de rest van de AFF A-serie systemen, kan de NVMe A800 opschalen naar 24 (12 HA-paren) 4U dual-controller nodes in een cluster in NAS-configuratie. Omdat dit een op NVMe gebaseerd systeem is, is er een kleine nuance als het gaat om schijfschaling. De midrange A300 ondersteunt bijvoorbeeld 4608 schijven, terwijl de A800 uitblinkt in 2880. Hoewel dit waarschijnlijk geen functioneel probleem zal zijn bij implementatie, benadrukken we dit alleen om aan te geven dat op NVMe gebaseerde systemen andere technische uitdagingen hebben bij het overwegen van JBOD-uitbreidingsplanken dan Op SAS gebaseerde systemen, dus we kunnen er niet zomaar van uitgaan dat naarmate u hogerop komt in de productlijn, alles groter wordt. In een SAN-configuratie schaalt de NVMe A800 naar 12 knooppunten (6 HA-paren) met ondersteuning voor 1,440 schijven. Dat gezegd hebbende, als gebruikers 15.3 TB NVMe SSD's gebruiken, kunnen ze opschalen naar 2.5 PB in een 4U-voetafdruk. Met gegevensefficiëntie ingeschakeld (uitgaande van 5:1), ondersteunt de A800 meer dan 315 PB in een NAS-cluster met 24 knooppunten en 160 TB in een SAN-cluster.
Terwijl NetApp front-end NVMe-ondersteuning heeft ingeschakeld in andere AFF-systemen, biedt de A800 zogenaamde end-to-end NVMe-ondersteuning. Zoals opgemerkt, gaan we in deze recensie niet helemaal in op wat dit betekent. Het volstaat te zeggen dat de A800 de eerste all-flash NVMe-array is die dit bereikt. Dit betekent in feite dat organisaties kunnen profiteren van de opkomende golf van NVMeoF-mogelijkheden van vandaag, terwijl ze nog steeds hun meer traditionele workloads over FC kunnen bedienen. Voorheen werden organisaties die wilden profiteren van NVMeoF over het algemeen gedegradeerd tot implementaties van het type 'wetenschappelijke projecten' die weliswaar snel waren, maar beperkingen hadden als het ging om schaalbaarheid en dataservices. De implementatie van NetApp hier verhelpt die tekortkomingen, terwijl het ook ondersteuning biedt voor de standaard connectiviteitsopties in zowel FC als Ethernet.
We kunnen natuurlijk niet over A800 praten zonder de nadruk te leggen op cloudconnectiviteit en de NetApp-gegevensfabriek. Inherent aan ONTAP is een uitgebreide connectiviteit met toonaangevende cloudproviders, waardoor klanten hun gegevens kunnen plaatsen waar dat het meest logisch is, lokaal op de A800 of ergens anders. NetApp ondersteunt cloud- en multi-cloudverbindingen met Amazon Web Services, Microsoft Azure, Google Cloud Platform en andere. Brede cloudondersteuning geeft NetApp-klanten de flexibiliteit die ze nodig hebben bij het beheren van hun datavoetafdruk en de behendigheid om data naar behoefte te verplaatsen om te profiteren van cloudeconomie, nieuwe functies of vormtypen, enzovoort.
Onze specifieke build bestaat uit een A800 met 24 x 1.92TB NVMe SSD's met twee vierpoorts 32Gb FC-poorten aangesloten per controller (8 poorten in totaal) met ONTAP 9.5RC1 geïnstalleerd.
NetApp A800-specificaties
Maximale schaalvergroting | 2-24 knooppunten (12 HA-paren) |
Maximale SSD | 2880 |
Maximale effectieve capaciteit | 316.3PB |
Per systeem actief-actief dubbele controller | |
Vormfactor van de controller | 4U |
PCIe-uitbreidingsslots | 8 |
FC-doelpoorten (autoranging van 32 Gb) | 32 |
FC-doelpoorten (autoranging van 16 Gb) | 32 |
100GbE-poorten (40GbE automatisch bereik) | 20 |
10GbE-poorten | 32 |
Opslagnetwerken ondersteund | NVMe/FC FC iSCSI NFS pNFS CIFS/SMB |
OS-versie | ONTAP 9.4 RC1 of hoger |
Schappen en media | NVMe Drive-pakketten |
Host-/clientbesturingssysteem ondersteund | Windows 2000 Windows Server 2003 Windows Server 2008 Windows Server 2012 Windows Server 2016 Linux Orakel Solaris AIX HP-UX Mac OS VMware ESX |
Ontwerp en bouw
De NetApp AFF A800 is een 4U-array die erg lijkt op de rest in de AFF-serie. Onder de stijlvolle rand met ventilatie en NetApp-branding bevinden zich twee rijen blauwe 2.5-inch drivebays voor de SSD's.
Kijkend naar de NVMe-schijven zelf, ondersteunt NetApp een breed scala aan capaciteitsopties, waaronder 1.9 TB, 3.8 TB, 7.6 TB en 15.3 TB SSD's. Op het moment van schrijven verzendt NetApp al deze schijven als self-encrypting (SED) met AES-256-codering. Bovendien is voor systemen die zijn geïnitialiseerd met ONTAP 9.4, snelle schijfnulstelling ingeschakeld.
Als je naar de achterkant van het apparaat draait, zijn er twee controllers: de ene op de andere gestapeld als een spiegelbeeld. Onze configuratie bevat vier verschillende soorten interfaces voor connectiviteit. Deze vier kaarten bevinden zich in de meest rechtse en middelste PCIe-slots. Ze omvatten een quad-port 32Gb FC-kaart (linksboven), een dual-port 25GbE netwerkkaart (linksonder), een dual-port 100GbE netwerkkaart (rechtsboven) en een quad-port 10GbE netwerkkaart (rechtsonder).
Als we een van de controllers verwijderen, kunnen we de verbindingen met de rest van het apparaat zien, evenals de ventilatoren aan de voorkant van de controller.
Omdraaiend naar de achterste controller, heeft de linkerkant dubbele redundante PSU's voor elke controller, evenals de HA-verbindingspoorten en clusterverbindingspoorten. De rechteronderkant van elke controller heeft ook 1HA- en clusterverbindingspoorten. Het grootste deel van de rest wordt ingenomen door PCIe-slots (vijf) die kunnen worden gevuld met netwerkpoorten 100GbE, 10GbE of 32Gb Fibre Channel of een combinatie van het bovenstaande, zoals in onze configuratie. Middenonder zitten de beheerpoorten en twee USB 3.0-poorten.
De controller is ongelooflijk eenvoudig te openen, waardoor hij zeer onderhoudsvriendelijk is.
We kunnen de twee CPU's, 20 DIMM-slots (gevuld met 20 x 32 GB DIMM's RAM) en de twee NVDIMM-slots zien. Ook de PCIe-netwerk-AIC's zijn vanaf hier goed bereikbaar.
beheer
De ONTAP GUI heeft in de loop der jaren een lange weg afgelegd, van een Java-enabled GUI in de 8.2 en oudere dagen tot de moderne en goed ontworpen webgestuurde ONTAP 9.5. NetApp heeft de GUI aanzienlijk verbeterd, waardoor deze steeds bruikbaarder wordt voor meer dan alleen dagelijkse beheerfuncties.
Dashboard:
Nadat u bent ingelogd, wordt u begroet door het dashboard dat u een snel overzicht geeft van wat er met het systeem gebeurt. Het dashboard is vrij eenvoudig voor zover je kunt zien. Elk van de widgets zorgt voor een snelle blik op waarschuwingen, prestaties, capaciteit, efficiëntie en bescherming. Voor meer gedetailleerde weergave en trending op de lange termijn wordt aanbevolen om de (gratis) OnCommand Unified Manager voor ONTAP-statistieken van NetApp te gebruiken.
Cloudlaag:
Met de toevoeging van de NetApp Cloud-optie Fabric Pool maakt de GUI het eenvoudig om verbinding te maken met openbare clouds, inclusief NDAS, evenals met lokale StorageGRID.
SVM's:
Vanaf dit tabblad kunt u alle dataprotocol-SVM's op het ONTAP-cluster maken, bewerken, verwijderen en starten/stoppen, evenals verschillende instellingen bewerken.
Geaggregeerde en opslagpools:
Met de tabbladen Aggregaten en Opslagpools kunt u eenvoudig aggregaten en opslagpools maken en beheren.
Volumes en LUN's:
De volume- en LUN-beheerpagina biedt u een grote verscheidenheid aan het maken en beheren van FlexVols, FlexGroups en LUN's, en zelfs igroups en mapping voor elk van de SVM's.
QoS:
QoS heeft in de loop der jaren een lange weg afgelegd op ONTAP, aangezien u nu een plafond en verdiepingen kunt configureren voor elke werklast, en ze kunt configureren om zich aan te passen aan uw veranderende werklasten. QoS kan worden toegepast op verschillende objecten binnen ONTAP, zoals volumes, bestanden en LUN's, evenals enkele andere objecten.
Netwerkconfiguratie:
Alle basisnetwerkconfiguratie en -beheer is aanwezig in de GUI: IP Spaces, Broadcast Domains, Ports, LIF's, FC en nu NVMe.
turen:
Tot de laatste paar versies van ONTAP moest u alleen peering-relaties maken via de CLI; nu kunt u echter ook Cluster-peers en zelfs de SVM-peers in de GUI maken. Zodra u peering hebt geconfigureerd, kunt u zelfs rechtstreeks in de wizard Volume maken een SnapMirror-relatie maken.
Clusterupdates:
ONTAP-upgrades worden steeds gemakkelijker door te voeren. Een kleine, maar erg handige functie toegevoegd in 9.4 maakt het nog gemakkelijker om ONTAP-updates uit te voeren. We houden allemaal zeker van de opdrachtregel, maar dit maakt het heel gemakkelijk om met klanten samen te werken om hun bestanden te upgraden. Geen http/ftp-servers meer om mee te rotzooien; upload gewoon het .tgz-bestand rechtstreeks en voer de geautomatiseerde clusterupdate uit.
Prestatie
Voor prestaties zullen we de A800 vergelijken met de A300. Dit wordt gebruikt om te laten zien hoe goed de prestaties van de NetApp AFF-modellen schalen naarmate u hogerop komt in de familie. In al onze tests hebben we services voor gegevensreductie ingeschakeld, wat betekent dat inline dedupe en compressie zijn ingeschakeld. Zoals we in eerdere beoordelingen hebben opgemerkt, biedt NetApp ONTAP geweldige DR-mogelijkheden met minimale overhead of prestatie-impact.
De configuratie van onze NetApp AFF A800 omvatte 8 32Gb FC-poorten met 24 1.92TB NVMe SSD's geïnstalleerd. Van de 24 SSD's van 1.92 TB die in onze A800 zijn geïmplementeerd, hebben we ze opgesplitst in twee RAID-DP-aggregaten, met 11 SSD's in gebruik en één als hot-spare. De array was verbonden via 32Gb via twee Brocade G620-switches, die vervolgens 16 16Gb-links hadden naar onze Dell PowerEdge R740xd-servers.
Voor onze synthetische benchmarks die zowel VDbench als Sysbench gebruiken, hebben we 32 volumes van 600 GB voorzien, gelijkmatig verdeeld over zowel controllers als schijfgroepen. Voor SQL Server hebben we vier extra volumes van 1.1 TB gebruikt, twee per controller voor de VM's die voor benchmarking worden gebruikt. Nadat rekening was gehouden met gegevensreductie, bedroeg de totale voetafdruk die tijdens onze tests werd gebruikt, iets minder dan 50% gebruik voor elk aggregaat.
SQL Server-prestaties
Het Microsoft SQL Server OLTP-testprotocol van StorageReview maakt gebruik van de huidige versie van Benchmark C (TPC-C) van de Transaction Processing Performance Council, een online transactieverwerkingsbenchmark die de activiteiten in complexe applicatieomgevingen simuleert. De TPC-C-benchmark komt dichterbij dan synthetische prestatiebenchmarks bij het meten van de sterke punten en knelpunten van opslaginfrastructuur in database-omgevingen.
Elke SQL Server VM is geconfigureerd met twee vDisks: een volume van 100 GB voor opstarten en een volume van 500 GB voor de database en logbestanden. Vanuit het perspectief van systeemresources hebben we elke VM geconfigureerd met 16 vCPU's, 64 GB DRAM en de LSI Logic SAS SCSI-controller gebruikt. Terwijl onze Sysbench-workloads het platform eerder verzadigden in zowel opslag-I/O als capaciteit, zoekt de SQL-test naar latentieprestaties.
Deze test maakt gebruik van SQL Server 2014 die wordt uitgevoerd op Windows Server 2012 R2-gast-VM's en wordt benadrukt door Dell's Benchmark Factory for Databases. Terwijl ons traditionele gebruik van deze benchmark was om grote databases met een schaal van 3,000 te testen op lokale of gedeelde opslag, richten we ons in deze iteratie op het gelijkmatig verdelen van vier databases met een schaal van 1,500 over onze servers.
SQL Server-testconfiguratie (per VM)
- Windows Server 2012 R2
- Opslagcapaciteit: 600 GB toegewezen, 500 GB gebruikt
- SQL Server 2014
- Databasegrootte: schaal 1,500
- Virtuele clientbelasting: 15,000
- RAM-buffer: 48 GB
- Testduur: 3 uur
- 2.5 uur voorconditionering
- 30 minuten proefperiode
Voor onze SQL Server-transactieprestaties had de A800 een totale score van 12,635.5 TPS met individuele VM's die liepen van 3,158.6 TPS tot 3,159.3 TPS (een mooie kleine stijging ten opzichte van de 300 TPS van de A12,628.7 en de 200 TPS van de A12,583.8).
Als we kijken naar de gemiddelde latentie van SQL Server, zien we een grotere verbetering in de A800, aangezien deze daalde tot 5 ms geaggregeerd en 5 ms op alle VM's (veel beter dan de 300 ms van de A8 en de 200 ms van de A25).
Sysbench MySQL-prestaties
Onze eerste benchmark voor lokale opslagtoepassingen bestaat uit een Percona MySQL OLTP-database gemeten via SysBench. Deze test meet ook de gemiddelde TPS (Transactions Per Second), de gemiddelde latentie en de gemiddelde latentie van het 99e percentiel.
Elke Sysbench VM is geconfigureerd met drie vDisks: één voor opstarten (~ 92 GB), één met de vooraf gebouwde database (~ 447 GB) en de derde voor de database die wordt getest (270 GB). Vanuit het perspectief van systeemresources hebben we elke VM geconfigureerd met 16 vCPU's, 60 GB DRAM en de LSI Logic SAS SCSI-controller gebruikt.
Sysbench-testconfiguratie (per VM)
- CentOS 6.3 64-bits
- Percona XtraDB 5.5.30-rel30.1
- Databasetabellen: 100
- Databasegrootte: 10,000,000
- Database-threads: 32
- RAM-buffer: 24 GB
- Testduur: 3 uur
- 2 uur preconditionering 32 threads
- 1 uur 32 draden
Voor Sysbench hebben we verschillende sets VM's getest, waaronder 8, 16 en 32, en we hebben Sysbench uitgevoerd met zowel de datareductie "Aan". De A800 haalde 15,750.8 TPS voor 8VM, 22,170.9 TPS voor 16VM en 44,149.8 TPS voor 32VM. Deze zijn veel hoger dan de vorige, bijna een verdubbeling van wat de A300 deed met 32VM, 22,313 TPS.
Met de gemiddelde latentie van Sysbench haalde de A800 16.3 ms voor 8 VM, 23.1 ms voor 16 VM en 23.2 ms voor 32 VM. Dit is veel beter dan de kleinere AFF-modellen.
In ons slechtste scenario (99e percentiel) latentie bereikte de A800 31.3 ms voor 8 VM, 48.5 ms voor 16 VM, 48.1 ms voor 32 VM.
VDBench-werkbelastinganalyse
Als het gaat om het benchmarken van opslagarrays, is het testen van toepassingen het beste en komt het synthetische testen op de tweede plaats. Hoewel ze geen perfecte weergave zijn van de werkelijke werkbelasting, helpen synthetische tests wel om opslagapparaten te baseren met een herhaalbaarheidsfactor die het gemakkelijk maakt om appels met appels te vergelijken tussen concurrerende oplossingen. Deze workloads bieden een scala aan verschillende testprofielen, variërend van "four corners"-tests, algemene tests voor de grootte van database-overdrachten, evenals het vastleggen van sporen uit verschillende VDI-omgevingen. Al deze tests maken gebruik van de gemeenschappelijke vdBench-workloadgenerator, met een scripting-engine om resultaten te automatiseren en vast te leggen over een groot rekentestcluster. Hierdoor kunnen we dezelfde workloads herhalen op een breed scala aan opslagapparaten, waaronder flash-arrays en individuele opslagapparaten.
profielen:
- 4K willekeurig lezen: 100% lezen, 128 threads, 0-120% joate
- 4K willekeurig schrijven: 100% schrijven, 64 threads, 0-120% irate
- 64K sequentieel lezen: 100% lezen, 16 threads, 0-120% jorate
- 64K sequentieel schrijven: 100% schrijven, 8 threads, 0-120% snelheid
- Synthetische database: SQL en Oracle
- VDI volledige kloon en gekoppelde kloonsporen
Beginnend met maximale willekeurige 4K-leesprestaties, begon de A800 bij 118,511 IOPS met een latentie van 217.5 μs. De A800 bleef onder de 1 ms totdat hij ongeveer 1.07 miljoen IOPS bereikte en piekte op 1,219.829 IOPS met een latentie van 3.3 ms. Dit was een duidelijk verschil met de topprestaties van de A300 van 635,342 IOPS met een latentie van 6.4 ms.
Kijkend naar 4K-schrijfprestaties, begon de A800 bij 45,676 IOPS met een latentie van 213.1 μs. De A800 had een latentieprestatie van minder dan een milliseconde tot ongeveer 410 IOPS en piekte vervolgens op ongeveer 439 IOPS met een latentie van 4.4 ms voordat hij wat terugviel. Daarentegen had de A300 een piekprestatie van 208,820 IOPS met een latentie van 9.72 ms.
Als we overschakelen naar sequentiële workloads, kijken we naar de maximale leesprestaties van 64K, en hier begon de A800 met 29,589 IOPS of 1.85 GB/s met een latentie van 166.1 μs. De A300 had een latentie van minder dan een milliseconde tot ongeveer 300 IOPS of 18.5 GB/s, met een piek van 302,668 IOPS of 18.9 GB/s bij een latentie van 1.7 ms. De A300 bereikte een piek van ongeveer 84,766K IOPS of 5.71GB/s met een latentie van 3.64ms voordat hij een beetje terugviel.
Voor 64K sequentiële schrijfprestaties begon de A800 bij 8,103 IOPS of 506.4 MB/s met een latentie van 304.8 μs. De array bleef onder de 1 ms tot het einde van de run of ongeveer 80 IOPS of 5 GB/s, en piekte op 80,536 IOPS of 5.03 GB/s met een latentie van 3.1 ms. Voor topprestaties zagen we dat de A300 48,883 IOPS of 3.1 GB/s bereikte bij een latentie van 4.8 ms.
Onze volgende reeks benchmarks zijn onze SQL-tests. In SQL begon de A800 bij 138,007 IOPS met een latentie van 255.2 μs en had een latentie van minder dan een milliseconde tot ongeveer 650 IOPS, en piekte vervolgens op 697,603 IOPS bij een latentie van 1.5 ms. Dit wordt vergeleken met de piek van 300 IOPS van de A488,488 met een latentie van 2.1 ms.
In SQL 90-10 startte de A800 op 70,867 IOPS met een latentie van 277.3 μs en bleef onder de 1 ms tot ongeveer 640 IOPS, en piekte vervolgens op 730,567 IOPS met een latentie van 1.4 ms. De A300 daarentegen had een topprestatie van 416,370 IOPS met een latentie van 2.46 ms
Voor SQL 80-20 begon de A800 bij 56,391 IOPS bij een latentie van 256.6 μs met een latentie van minder dan een milliseconde tot ongeveer 480 IOPS. De A800 bereikte een piek van 623,557 IOPS met een latentie van 1.6 ms. Dit was ongeveer het dubbele van de 300 IOPS van de A360,642 met een latentie van 2.82 ms.
Als we verder gaan met onze Oracle-workloads, zagen we dat de A800 begon bij 64,020 IOPS met een latentie van 254.7 μs en onder de 1 ms bleef tot ongeveer 470 IOPS. De A800 piekte op 656,438 IOPS bij een latentie van 1.9 ms. Nogmaals, de A800 presteerde bijna twee keer zo goed als de score van de A300 van 340,391 IOPS met een latentie van 3.6 ms.
Met de Oracle 90-10 begon de A800 met 75,710 IOPS en 242.5 μs latentie. De array beheerde de hele tijd latentieprestaties van minder dan een milliseconde, met een piek van 759,117 IOPS bij 839.2 μs latentie - een grote stap vooruit ten opzichte van de A300's piek van 417,869 IOPS met een latentie van 1.53 ms.
Met de Oracle 80-20 handhaafde de A800 submilliseconde latentieprestaties, beginnend bij 65,505 IOPS bij 254.5 μs latentie en piekend bij 666,556 IOPS bij 943.1 μs. De A300 piekte op 362,499 IOPS en een latentie van 1.62 ms.
Vervolgens zijn we overgestapt op onze VDI Clone Test, Full en Linked. Voor VDI Full Clone Boot had de A800 een latentie van minder dan een milliseconde tot ongeveer 535 IOPS en piekte hij op 579,786 IOPS met een latentie van 1.8 ms. De A300 piekte op 300,128 IOPS met een latentie van 3.46 ms.
Met de VDI Full Clone Initial Login bleef de A800 onder de 1 ms tot ongeveer 200 IOPS en piekte hij op 254,888 IOPS met een latentie van 3.5 ms. Dit staat in contrast met de A300 met een piek van 123,984 IOPS met een latentie van 7.26 ms.
De VDI FC Monday Login toonde de A800 met sub-milliseconde latentieprestaties tot ongeveer 180K IOPS en een piek van 228,346 IOPS met een latentie van 2.2 ms. Dit was een grote sprong ten opzichte van de 300 IOPS van de A131,628 met een latentie van 3.89 ms.
Bij het overschakelen naar de VDI Linked Clone (LC), had de A800 tijdens de opstarttest bijna de hele tijd een vertraging van minder dan 1 ms, waarbij hij de barrière van 1 ms doorbrak met ongeveer 440 IOPS en piekte op 460,366 IOPS met een latentie van 1.1 ms. De A300 piekte op 215,621 IOPS met een latentie van 2.28 ms.
In VDI LC Initial Login had de A800 opnieuw een lange aaneengesloten latentie van minder dan een milliseconde tot ongeveer 158 IOPS, met een piek van 166,224 IOPS bij een latentie van 1.5 ms. Dit wordt vergeleken met de piek van 300 IOPS van de A95,296 met een latentie van 2.68 ms.
Ten slotte kijken we naar VDI LC Monday Login waar de A800 begon met 15,287 IOPS bij een latentie van 299.3 μs. De array bleef onder de 1 ms tot ongeveer 130 IOPS en piekte op 164,684 IOPS bij een latentie van 3.1 ms. De A300 piekte op 94,722 IOPS met een latentie van 5.4 ms
Conclusie
De NetApp AFF A800 is een 4U, all-flash storagearray die draait om topprestaties. De A800 wordt geleverd met alle NVMe-flash en is gericht op de meest veeleisende workloads. Afgezien van het ondersteunen van alle NVMe (en NVMe SSD's tot 15.3 TB aan capaciteit elk), heeft de AFF A800 ook optionele 100GbE-connectiviteit voor wanneer prestaties een absolute must zijn. Volgens NetApp zou de AFF A800 in staat moeten zijn om 1.4 miljoen IOPS te halen bij een latentie van minder dan 500 μs. Net als bij andere NetApp-arrays in de A-serie, wordt de A800 aangedreven door ONTAP.
Voor de prestaties hebben we zowel onze Application Analysis Workloads, bestaande uit SQL Server en Sysbench, als onze VDBench-workloads uitgevoerd. Voor onze Application Workload-analyse had de A800 transactionele SQL Server-scores van 12,835.5 TPS in totaal en een gemiddelde latentie van 5 ms. Dit was een grote prestatieverbetering ten opzichte van de 300 TPS van de A12,628.7 en een gemiddelde latentie van 8 ms. Met Sysbench gaf de A800 ons 15,750.8 TPS voor 8VM, 22,170.9 TPS voor 16VM en 44,149.8 TPS voor 32VM, met gemiddelde latenties van 16.3 ms voor 8VM, 23.1 ms voor 16VM en 23.2 ms voor 32VM, en in het slechtste geval latenties van 31.3 ms voor 8 VM, 48.5 ms voor 16 VM en 48.1 ms voor 32 VM. In sommige gevallen kon de A800 de TPS verdubbelen en tegelijkertijd de latentie ongeveer halveren.
Voor onze VDBench-workloads bleef de NetApp AFF A800 uitblinken. Hoogtepunten zijn onder meer 1.2 miljoen IOPS in 4K lezen, 439K IOPS in 4K schrijven, 18.9 GB/s in sequentiële 64K lezen en 5.03 GB/s in 64K schrijven. Al deze nummers werden bereikt met een latentie van minder dan 5 ms. In onze SQL-tests bereikte de array 698K IOPS, 731K IOPS in SQL 90-10 en 624K IOPS in SQL 80-20. In Oracle bereikte de A800 656K IOPS en in zowel Oracle 90-10 als Oracle 80-20 had de array overal een latentie van minder dan een milliseconde met piekscores van respectievelijk 759K IOPS en 667K IOPS. In onze VDI Clone-tests behaalde de A800 opstartscores van 580 IOPS voor Full Clone en 460 IOPS voor Linked Clone. De hoogste pieklatentie tijdens al onze tests was slechts 4.4 ms.
Net als de ONTAP-systemen voor het middensegment die we eerder hebben besproken, haalt NetApp het opnieuw uit het park met de op ondernemingen gerichte A800. Het prestatieprofiel is erg sterk en neemt zijn positie aan de top van de ONTAP-familie in. Zoals opgemerkt, is dit testen het Fibre Channel-werk van de tuinvariëteit; we moeten ons nog terugtrekken wat beschikbaar is in de NVMeoF-configuratie, wat leuk zou moeten zijn. Bij het bekijken van hardware voor beoordeling, is er soms een knagende zorg dat oudere opslagleveranciers niet zo snel en flexibel zijn als de startups en dat "legacy-code" het tempo niet kan bijhouden. We zien nergens tekenen van deze problemen in het NetApp-portfolio, en verder omarmt de A800 NVMe en NVMeoF op een manier die praktisch is voor de onderneming zonder in te leveren op de gegevensbescherming en beschikbaarheidsfuncties die jarenlang inherent zijn aan ONTAP. NetApp heeft een geweldige grip op NVMe in de A800, we zijn enthousiast om te zien hoe dit leren hun weg vindt in hun andere arrays.
Meld u aan voor de StorageReview-nieuwsbrief