L'AFF A800 est la baie de stockage 32 % Flash ONTAP haut de gamme de NetApp, qui offrait lors de son lancement un NVMe/FC de bout en bout sur 100 Go FC, ainsi qu'une connectivité XNUMX GbE. À ce jour, nous avons parcouru la gamme AFF XNUMX % flash, en commençant par le puissant A200 (remplacé depuis par l'A220) ainsi que le A300. Les deux unités que nous avons examinées précédemment ont remporté le prix Editor's Choice. Aujourd'hui, nous examinerons la centrale électrique A800 basée sur NVMe qui offre les mêmes avantages ONTAP que les modèles précédemment examinés, ainsi que des performances exponentiellement plus rapides et une latence plus faible. Alors que cet examen initial se concentre sur les performances du système sur Fibre Channel, les articles suivants plongeront dans la prise en charge de bout en bout NVMe over Fabrics (NVMeoF) de l'A800.
L'AFF A800 est la baie de stockage 32 % Flash ONTAP haut de gamme de NetApp, qui offrait lors de son lancement un NVMe/FC de bout en bout sur 100 Go FC, ainsi qu'une connectivité XNUMX GbE. À ce jour, nous avons parcouru la gamme AFF XNUMX % flash, en commençant par le puissant A200 (remplacé depuis par l'A220) ainsi que le A300. Les deux unités que nous avons examinées précédemment ont remporté le prix Editor's Choice. Aujourd'hui, nous examinerons la centrale électrique A800 basée sur NVMe qui offre les mêmes avantages ONTAP que les modèles précédemment examinés, ainsi que des performances exponentiellement plus rapides et une latence plus faible. Alors que cet examen initial se concentre sur les performances du système sur Fibre Channel, les articles suivants plongeront dans la prise en charge de bout en bout NVMe over Fabrics (NVMeoF) de l'A800.
Contrairement aux A200 et A300 qui ont été conçus pour différents segments du marché de milieu de gamme, l'A800 est conçu pour les charges de travail qui exigent le plus de performances (telles que l'IA et le Deep Leaning), tout en incluant également l'ensemble robuste de services de données d'entreprise qu'ONTAP est connu pour. Pour plus de clarté, NetApp propose une série de stockages vraiment rapides dans la famille EF XNUMX % flash, comme le milieu de gamme EF570 nous avons examiné précédemment. De retour à l'A800, NetApp affirme que le système peut atteindre 1.3 million d'IOPS avec une latence inférieure à 500 μs et un débit allant jusqu'à 34 Go/s avec une paire HA. À grande échelle, cela signifie qu'un cluster NAS peut fournir jusqu'à 11.4 millions d'IOPS avec une latence de 1 ms et un débit de 300 Go/s. Un cluster SAN peut fournir jusqu'à 7.8 millions d'IOPS avec une latence de 500 µs et un débit de 204 Go/s.
Comme le reste des systèmes AFF de la série A, le NVMe A800 peut évoluer jusqu'à 24 (12 paires HA) nœuds à double contrôleur 4U dans un cluster en configuration NAS. Comme il s'agit d'un système basé sur NVMe, il y a une petite nuance en ce qui concerne la mise à l'échelle du disque. L'A300 de milieu de gamme, par exemple, prend en charge 4608 disques là où l'A800 plafonne à 2880. Bien qu'il ne soit pas susceptible d'être un problème fonctionnel lors du déploiement, nous le soulignons simplement pour indiquer que les systèmes basés sur NVMe ont des défis d'ingénierie différents lorsqu'ils envisagent des étagères d'extension JBOD que Systèmes basés sur SAS, nous ne pouvons donc pas simplement supposer que vous montez dans la gamme de produits que tout devient plus gros. Dans une configuration SAN, le NVMe A800 évolue jusqu'à 12 nœuds (6 paires HA) avec prise en charge de 1,440 15.3 disques. Cela dit, si les utilisateurs exploitent des SSD NVMe de 2.5 To, ils peuvent évoluer jusqu'à 4 Po dans une empreinte 5U. Avec l'efficacité des données activée (en supposant 1: 800), l'A315 prend en charge plus de 24 Po dans un cluster NAS à 160 nœuds et XNUMX To dans un cluster SAN.
Alors que NetApp a activé la prise en charge NVMe frontale dans d'autres systèmes AFF, l'A800 offre ce qu'on appelle une prise en charge NVMe de bout en bout. Comme indiqué, nous n'allons pas nous plonger dans ce que cela signifie dans cet examen. Qu'il suffise de dire que l'A800 est la première baie NVMe XNUMX % flash à accomplir cela. Concrètement, cela signifie que les organisations peuvent tirer parti de la vague émergente de capacités NVMeoF aujourd'hui, tout en continuant à gérer leurs charges de travail plus traditionnelles via FC. Auparavant, les organisations souhaitant tirer parti de NVMeoF étaient généralement reléguées à des types de déploiements de "projets scientifiques" qui, bien que rapides, présentaient des limites en termes d'échelle et de services de données. La mise en œuvre de NetApp ici comble ces lacunes, tout en prenant également en charge les options de connectivité standard dans FC et Ethernet.
Bien sûr, on ne peut pas parler d'A800 sans mettre en avant la connectivité cloud et la Structure de données NetApp. Inhérent à ONTAP est un ensemble de connectivité aux principaux fournisseurs de cloud, permettant aux clients de placer leurs données là où cela a le plus de sens, que ce soit localement sur l'A800 ou ailleurs. NetApp prend en charge les connexions cloud et multicloud avec Amazon Web Services, Microsoft Azure, Google Cloud Platform et autres. La prise en charge étendue du cloud offre aux clients NetApp la flexibilité dont ils ont besoin pour gérer leur empreinte de données et la souplesse nécessaire pour déplacer les données selon les besoins afin de tirer parti de l'économie du cloud, des nouvelles fonctionnalités ou des nouveaux types de formes, etc.
Notre version particulière consiste en un A800 avec 24 disques SSD NVMe de 1.92 To avec deux ports FC 32 Go à quatre ports connectés par contrôleur (8 ports au total) avec ONTAP 9.5RC1 installé.
Spécifications NetApp A800
Évolutivité maximale | 2-24 nœuds (12 paires HA) |
SSD maximal | 2880 |
Capacité effective maximale | 316.3PB |
Double contrôleur actif-actif par système | |
Facteur de forme du contrôleur | 4U |
Emplacements d'extension PCIe | 8 |
Ports cibles FC (gamme automatique 32 Go) | 32 |
Ports cibles FC (gamme automatique 16 Go) | 32 |
Ports 100GbE (gamme automatique 40GbE) | 20 |
ports 10GbE | 32 |
Réseau de stockage pris en charge | NVMe/FC FC iSCSI NFS pNFS CIFS/PME |
Version de l'OS | ONTAP 9.4 RC1 ou version ultérieure |
Étagères et médias | Packs de disques NVMe |
Système d'exploitation hôte/client pris en charge | Windows 2000 Windows Server 2003 Windows Server 2008 Windows Server 2012 Windows Server 2016 Linux OracleSolaris AIX HP-UX Mac OS VMware ESX |
Concevoir et construire
Le NetApp AFF A800 est une baie 4U qui ressemble beaucoup au reste de la série AFF. Sous le cadre élégant qui contient la ventilation et la marque NetApp, se trouvent deux rangées de baies de lecteur bleues de 2.5 pouces pour les SSD.
En ce qui concerne les disques NVMe eux-mêmes, NetApp prend en charge une large gamme d'options de capacité, notamment des SSD de 1.9 To, 3.8 To, 7.6 To et 15.3 To. Au moment d'écrire ces lignes, NetApp expédie tous ces disques à cryptage automatique (SED) avec cryptage AES-256. De plus, pour les systèmes initialisés avec ONTAP 9.4, la mise à zéro rapide du lecteur est activée.
En retournant à l'arrière de l'appareil, il y a deux contrôleurs : l'un empilé l'un sur l'autre comme une image miroir. Notre configuration comprend quatre styles d'interfaces différents pour la connectivité. Ces quatre cartes se trouvent sur les emplacements PCIe les plus à droite et au milieu. Ils comprennent une carte FC 32 Go à quatre ports (en haut à gauche), une carte réseau à deux ports 25 GbE (en bas à gauche), une carte réseau à deux ports 100 GbE (en haut à droite) et une carte réseau à quatre ports 10 GbE (en bas à droite).
En retirant l'un des contrôleurs, nous pouvons voir les connexions au reste de l'unité, ainsi que les ventilateurs qui bordent l'avant du contrôleur.
En retournant vers le contrôleur arrière, le côté gauche comporte deux blocs d'alimentation redondants pour chaque contrôleur ainsi que les ports d'interconnexion HA et les ports d'interconnexion de cluster. Le bas droit de chaque contrôleur dispose également de ports d'interconnexion 1HA et de cluster. La majeure partie du reste est occupée par des emplacements PCIe (cinq) qui peuvent être remplis avec des ports réseau 100GbE, 10GbE ou 32Gb Fibre Channel ou une combinaison de ce qui précède, comme dans notre configuration. Au milieu en bas se trouvent les ports de gestion et deux ports USB 3.0.
Le contrôleur est incroyablement facile à ouvrir, ce qui le rend très pratique.
Nous pouvons voir les deux processeurs, 20 emplacements DIMM (équipés de 20 modules DIMM de 32 Go de RAM) et les deux emplacements NVDIMM. Les AIC du réseau PCIe sont également facilement accessibles à partir d'ici.
Direction
L'interface graphique ONTAP a parcouru un long chemin au fil des ans, passant d'une interface graphique compatible Java dans les versions 8.2 et antérieures à l'ONTAP 9.5, moderne et bien conçu, piloté par le Web. NetApp a apporté des améliorations significatives à l'interface graphique, la rendant de plus en plus utilisable pour plus que les simples fonctions d'administration quotidiennes.
Tableau de bord:
Après vous être connecté, vous êtes accueilli par le tableau de bord qui vous donnera un aperçu rapide de ce qui se passe avec le système. Le tableau de bord est assez simple en ce qui concerne ce que vous pouvez voir. Chacun des widgets permet de jeter un coup d'œil rapide sur les alertes, les performances, la capacité, l'efficacité et la protection. Pour une visualisation plus détaillée et des tendances à long terme, il est recommandé d'utiliser les métriques OnCommand Unified Manager for ONTAP (gratuites) de NetApp.
Niveau cloud :
Avec l'ajout de l'option NetApp Cloud Fabric Pool, l'interface graphique simplifie la connexion aux clouds publics, y compris NDAS, ainsi qu'au StorageGRID local.
SVM :
À partir de cet onglet, vous pouvez créer, modifier, supprimer et démarrer/arrêter toutes les SVM de protocole de données sur le cluster ONTAP, ainsi que modifier divers paramètres.
Pools d'agrégation et de stockage :
Les onglets Aggregate et Storage Pool permettent une création et une gestion simples des agrégats et des pools de stockage.
Volumes et LUN :
La page d'administration Volume et LUN vous offre une grande variété de possibilités de création et d'administration de FlexVols, FlexGroups et LUN, et même d'igroups et de mappage pour chacune des SVM.
QoS :
La qualité de service a parcouru un long chemin sur ONTAP au fil des ans, car vous pouvez désormais configurer un plafond et des planchers pour chaque charge de travail, ainsi que les configurer pour s'adapter à l'évolution de vos charges de travail. La qualité de service peut être appliquée à divers objets à l'intérieur d'ONTAP, tels que les volumes, les fichiers et les LUN, ainsi qu'à quelques autres objets.
Configuration réseau :
Toute la configuration et l'administration de base du réseau sont présentes dans l'interface graphique : espaces IP, domaines de diffusion, ports, LIF, FC et maintenant NVMe.
Appairage :
Jusqu'aux dernières versions d'ONTAP, vous deviez créer des relations d'appairage uniquement via la CLI ; cependant, vous pouvez maintenant créer des pairs de cluster et même les pairs SVM dans l'interface graphique. Une fois l'appairage configuré, vous pouvez même créer une relation SnapMirror directement dans l'assistant de création de volume.
Mises à jour du cluster :
Les mises à niveau ONTAP deviennent de plus en plus faciles à effectuer. Une fonctionnalité petite mais très utile ajoutée dans la version 9.4 facilite encore plus les mises à jour ONTAP. Bien sûr, nous aimons tous la ligne de commande, mais cela facilite vraiment la collaboration avec les clients pour mettre à niveau leurs fichiers. Plus de serveurs http/ftp avec lesquels jouer ; téléchargez simplement le fichier .tgz directement et exécutez la mise à jour automatisée du cluster.
Performances
Pour les performances, nous comparerons l'A800 à l'A300. Ceci est utilisé pour montrer à quel point les performances des modèles NetApp AFF évoluent à mesure que vous progressez dans la famille. Dans tous nos tests, nous avons activé les services de réduction des données, ce qui signifie que la déduplication et la compression en ligne sont activées. Comme nous l'avons noté dans les revues précédentes, NetApp ONTAP offre d'excellentes capacités de reprise après sinistre avec un minimum de surcharge ou d'impact sur les performances.
La configuration de notre NetApp AFF A800 comprenait 8 ports FC de 32 Go avec 24 SSD NVMe de 1.92 To installés. Sur les 24 SSD de 1.92 To déployés dans notre A800, nous les avons divisés en deux agrégats RAID-DP, avec 11 SSD en cours d'utilisation et un comme hot-spare. La baie était connectée via 32 Go via deux commutateurs Brocade G620, qui disposaient alors de 16 liaisons de 16 Go vers nos serveurs Dell PowerEdge R740xd.
Pour nos benchmarks synthétiques utilisant VDbench ainsi que Sysbench, nous avons provisionné 32 volumes de 600 Go répartis uniformément sur les contrôleurs et les groupes de disques. Pour SQL Server, nous avons utilisé quatre volumes supplémentaires de 1.1 To, deux par contrôleur, pour contenir les machines virtuelles utilisées pour l'analyse comparative. Une fois la réduction des données prise en compte, l'empreinte totale utilisée lors de nos tests s'élevait à un peu moins de 50 % d'utilisation pour chaque agrégat.
Performances du serveur SQL
Le protocole de test Microsoft SQL Server OLTP de StorageReview utilise la version actuelle du Transaction Processing Performance Council's Benchmark C (TPC-C), une référence de traitement des transactions en ligne qui simule les activités trouvées dans des environnements d'application complexes. Le benchmark TPC-C est plus proche que les benchmarks de performances synthétiques pour évaluer les forces de performance et les goulots d'étranglement de l'infrastructure de stockage dans les environnements de base de données.
Chaque machine virtuelle SQL Server est configurée avec deux vDisks : un volume de 100 Go pour le démarrage et un volume de 500 Go pour la base de données et les fichiers journaux. Du point de vue des ressources système, nous avons configuré chaque machine virtuelle avec 16 vCPU, 64 Go de DRAM et exploité le contrôleur LSI Logic SAS SCSI. Alors que nos charges de travail Sysbench testées précédemment saturaient la plate-forme à la fois en termes d'E/S de stockage et de capacité, le test SQL recherche les performances de latence.
Ce test utilise SQL Server 2014 s'exécutant sur des machines virtuelles invitées Windows Server 2012 R2 et est souligné par Dell Benchmark Factory for Databases. Alors que notre utilisation traditionnelle de cette référence a été de tester de grandes bases de données à l'échelle 3,000 1,500 sur un stockage local ou partagé, dans cette itération, nous nous concentrons sur la répartition uniforme de quatre bases de données à l'échelle XNUMX XNUMX sur nos serveurs.
Configuration des tests SQL Server (par machine virtuelle)
- Windows Server 2012 R2
- Empreinte de stockage : 600 Go alloués, 500 Go utilisés
- SQL Server 2014
- Taille de la base de données : échelle 1,500 XNUMX
- Charge de client virtuel : 15,000 XNUMX
- Mémoire tampon : 48 Go
- Durée du test : 3 heures
- 2.5 heures de préconditionnement
- Période d'échantillonnage de 30 minutes
Pour nos performances transactionnelles SQL Server, l'A800 avait un score global de 12,635.5 3,158.6 TPS avec des machines virtuelles individuelles allant de 3,159.3 300 TPS à 12,628.7 200 TPS (une belle petite augmentation par rapport aux 12,583.8 XNUMX TPS de l'AXNUMX et aux XNUMX XNUMX TPS de l'AXNUMX).
En regardant la latence moyenne de SQL Server, nous constatons une plus grande amélioration de l'A800 puisqu'il est tombé à 5 ms au total et à 5 ms sur toutes les machines virtuelles (bien mieux que les 300 ms de l'A8 et les 200 ms de l'A25).
Performances Sysbench MySQL
Notre premier benchmark d'application de stockage local consiste en une base de données Percona MySQL OLTP mesurée via SysBench. Ce test mesure également le TPS moyen (transactions par seconde), la latence moyenne et la latence moyenne au 99e centile.
Chaque machine virtuelle Sysbench est configurée avec trois vDisks : un pour le démarrage (~92 Go), un avec la base de données prédéfinie (~447 Go) et le troisième pour la base de données testée (270 Go). Du point de vue des ressources système, nous avons configuré chaque machine virtuelle avec 16 vCPU, 60 Go de DRAM et exploité le contrôleur LSI Logic SAS SCSI.
Configuration des tests Sysbench (par machine virtuelle)
- CentOS 6.3 64 bits
- Percona XtraDB 5.5.30-rel30.1
- Tableaux de base de données : 100
- Taille de la base de données : 10,000,000 XNUMX XNUMX
- Threads de base de données : 32
- Mémoire tampon : 24 Go
- Durée du test : 3 heures
- 2 heures de préconditionnement 32 fils
- 1 heure 32 fils
Pour Sysbench, nous avons testé plusieurs ensembles de machines virtuelles, dont 8, 16 et 32, et nous avons exécuté Sysbench avec la réduction de données "On". L'A800 a pu atteindre 15,750.8 8 TPS pour 22,170.9 VM, 16 44,149.8 TPS pour 32 VM et 300 32 TPS pour 22,313 VM. Ceux-ci sont beaucoup plus élevés que les précédents, doublant presque ce que l'AXNUMX a fait avec XNUMXVM, XNUMX XNUMX TPS.
Avec la latence moyenne de Sysbench, l'A800 a atteint 16.3 ms pour 8 VM, 23.1 ms pour 16 VM, et 23.2 ms pour 32 VM. C'est bien mieux que les petits modèles AFF.
Dans notre pire scénario de latence (99e centile), l'A800 a atteint 31.3 ms pour 8 VM, 48.5 ms pour 16 VM, 48.1 ms pour 32 VM.
Analyse de la charge de travail VDBench
Lorsqu'il s'agit de comparer les baies de stockage, les tests d'application sont les meilleurs et les tests synthétiques viennent en deuxième position. Bien qu'ils ne soient pas une représentation parfaite des charges de travail réelles, les tests synthétiques aident à référencer les périphériques de stockage avec un facteur de répétabilité qui facilite la comparaison de pommes à pommes entre des solutions concurrentes. Ces charges de travail offrent une gamme de profils de test différents allant des tests « aux quatre coins », des tests de taille de transfert de base de données communs, ainsi que des captures de traces à partir de différents environnements VDI. Tous ces tests exploitent le générateur de charge de travail vdBench commun, avec un moteur de script pour automatiser et capturer les résultats sur un grand cluster de test de calcul. Cela nous permet de répéter les mêmes charges de travail sur une large gamme de périphériques de stockage, y compris les baies flash et les périphériques de stockage individuels.
Profils:
- Lecture aléatoire 4K : 100 % de lecture, 128 threads, 0-120 % d'iorate
- Écriture aléatoire 4K : 100 % d'écriture, 64 threads, 0-120 % de vitesse
- Lecture séquentielle 64K : 100 % de lecture, 16 threads, 0-120 % d'iorate
- Écriture séquentielle 64K : 100 % d'écriture, 8 threads, 0-120 % d'iorate
- Base de données synthétique : SQL et Oracle
- Traces de clone complet et de clone lié VDI
En commençant par des performances de lecture 4K aléatoires maximales, l'A800 a commencé à 118,511 217.5 IOPS avec une latence de 800 μs. L'A1 est resté sous 1.07 ms jusqu'à ce qu'il atteigne environ 1,219.829 million d'IOPS et a culminé à 3.3 300 IOPS avec une latence de 635,342 ms. C'était une différence marquée par rapport aux performances de pointe de l'A6.4 de XNUMX XNUMX IOPS avec une latence de XNUMX ms.
En ce qui concerne les performances d'écriture 4K, l'A800 a commencé à 45,676 213.1 IOPS avec une latence de 800 μs. L'A410 avait des performances de latence inférieures à la milliseconde jusqu'à environ 439 4.4 IOPS et a culminé à environ 300 208,820 IOPS avec une latence de 9.72 ms avant d'en perdre. En revanche, l'AXNUMX avait une performance maximale de XNUMX XNUMX IOPS avec une latence de XNUMX ms.
En passant aux charges de travail séquentielles, nous examinons les performances de lecture maximales de 64K, et ici l'A800 a commencé à 29,589 1.85 IOPS ou 166.1 Go/s avec une latence de 300 μs. L'A300 avait une latence inférieure à la milliseconde jusqu'à environ 18.5 302,668 IOPS ou 18.9 Go/s, atteignant un pic à 1.7 300 IOPS ou 84,766 Go/s à une latence de 5.71 ms. L'A3.64 a culminé à environ XNUMX XNUMX XNUMX IOPS ou XNUMX Go/s avec une latence de XNUMX ms avant de chuter un peu.
Pour des performances d'écriture séquentielle de 64K, l'A800 a démarré à 8,103 506.4 IOPS ou 304.8 Mo/s avec une latence de 1 μs. La baie est restée inférieure à 80 ms jusqu'à la fin de son exécution, soit environ 5 80,536 IOPS ou 5.03 Go/s, atteignant un pic à 3.1 300 IOPS ou 48,883 Go/s avec une latence de 3.1 ms. Pour des performances optimales, nous avons vu l'A4.8 atteindre XNUMX XNUMX IOPS ou XNUMX Go/s avec une latence de XNUMX ms.
Notre prochain lot de benchmarks sont nos tests SQL. En SQL, l'A800 a commencé à 138,007 255.2 IOPS avec une latence de 650 μs et avait une latence inférieure à la milliseconde jusqu'à environ 697,603 1.5 IOPS, pour atteindre un pic à 300 488,488 IOPS avec une latence de 2.1 ms. Ceci est comparé au pic de l'AXNUMX de XNUMX XNUMX IOPS avec une latence de XNUMX ms.
Dans SQL 90-10, l'A800 a commencé à 70,867 277.3 IOPS avec une latence de 1 μs et est resté inférieur à 640 ms jusqu'à environ 730,567 1.4 IOPS, pour atteindre un pic à 300 416,370 IOPS avec une latence de 2.46 ms. L'AXNUMX, d'autre part, avait des performances maximales de XNUMX XNUMX IOPS avec une latence de XNUMX ms
Pour SQL 80-20, l'A800 a démarré à 56,391 256.6 IOPS avec une latence de 480 μs avec une latence inférieure à la milliseconde jusqu'à environ 800 623,557 IOPS. L'A1.6 a ensuite culminé à 300 360,642 IOPS avec une latence de 2.82 ms. C'était environ le double des XNUMX XNUMX IOPS de l'AXNUMX avec une latence de XNUMX ms.
Passant à nos charges de travail Oracle, nous avons vu l'A800 démarrer à 64,020 254.7 IOPS avec une latence de 1 μs, restant sous 470 ms jusqu'à environ 800 656,438 IOPS. L'A1.9 a culminé à 800 300 IOPS avec une latence de 340,391 ms. Encore une fois, l'A3.6 avait des performances presque deux fois supérieures au score de l'AXNUMX de XNUMX XNUMX IOPS avec une latence de XNUMX ms.
Avec l'Oracle 90-10, l'A800 a commencé à 75,710 242.5 IOPS et une latence de 759,117 μs. La baie a géré des performances de latence inférieures à la milliseconde tout au long, culminant à 839.2 300 IOPS à une latence de 417,869 μs, un grand pas en avant par rapport au pic de l'A1.53 de XNUMX XNUMX IOPS avec une latence de XNUMX ms.
Avec l'Oracle 80-20, l'A800 a maintenu des performances de latence inférieures à la milliseconde à partir de 65,505 254.5 IOPS à une latence de 666,556 μs et culminant à 943.1 300 IOPS à 362,499 μs. L'A1.62 a culminé à XNUMX XNUMX IOPS et une latence de XNUMX ms.
Ensuite, nous sommes passés à notre test de clone VDI, complet et lié. Pour VDI Full Clone Boot, l'A800 avait une latence inférieure à la milliseconde jusqu'à environ 535 579,786 IOPS et a culminé à 1.8 300 IOPS avec une latence de 300,128 ms. L'A3.46 a culminé à XNUMX XNUMX IOPS avec une latence de XNUMX ms.
Avec la connexion initiale VDI Full Clone, l'A800 est resté sous 1 ms jusqu'à environ 200 254,888 IOPS et a culminé à 3.5 300 IOPS avec une latence de 123,984 ms. Cela contraste avec l'A7.26 culminant à XNUMX XNUMX IOPS avec une latence de XNUMX ms.
Le VDI FC Monday Login a montré l'A800 avec des performances de latence inférieures à la milliseconde jusqu'à environ 180 228,346 IOPS et un pic de 2.2 300 IOPS avec une latence de 131,628 ms. C'était un grand saut par rapport aux 3.89 XNUMX IOPS de l'AXNUMX avec une latence de XNUMX ms.
En passant au VDI Linked Clone (LC), lors du test de démarrage, l'A800 avait une latence inférieure à 1 ms presque partout, franchissant la barrière de 1 ms à environ 440 460,366 IOPS et culminant à 1.1 300 IOPS avec une latence de 215,621 ms. L'A2.28 a culminé à XNUMX XNUMX IOPS avec une latence de XNUMX ms.
Dans VDI LC Initial Login, l'A800 a de nouveau eu une longue période de latence inférieure à la milliseconde jusqu'à environ 158 166,224 IOPS, culminant à 1.5 300 IOPS avec une latence de 95,296 ms. Ceci est comparé au pic de l'A2.68 de XNUMX XNUMX IOPS avec une latence de XNUMX ms.
Enfin, nous regardons VDI LC Monday Login où l'A800 a commencé à 15,287 299.3 IOPS avec une latence de 1 μs. La baie est restée inférieure à 130 ms jusqu'à environ 164,684 3.1 IOPS et a culminé à 300 94,722 IOPS avec une latence de 5.4 ms. L'AXNUMX a culminé à XNUMX XNUMX IOPS avec une latence de XNUMX ms
Conclusion
Le NetApp AFF A800 est une baie de stockage 4U 800 % Flash qui mise sur les meilleures performances. L'A15.3 est livré avec tout le flash NVMe et est destiné aux charges de travail les plus exigeantes. En plus de prendre en charge tous les NVMe (et les SSD NVMe jusqu'à 800 To de capacité chacun), l'AFF A100 dispose également d'une connectivité 800GbE en option lorsque les performances sont un must absolu. Selon NetApp, l'AFF A1.4 devrait pouvoir atteindre 500 million d'IOPS avec une latence inférieure à 800 μs. Comme pour les autres baies NetApp de la série A, l'AXNUMX est alimenté par ONTAP.
Pour les performances, nous avons exécuté à la fois nos charges de travail d'analyse d'application, composées de SQL Server et de Sysbench, ainsi que nos charges de travail VDBench. Pour notre analyse de la charge de travail des applications, l'A800 avait des scores SQL Server transactionnels de 12,835.5 5 TPS au total et une latence moyenne de 300 ms. Il s'agissait d'une grande amélioration des performances par rapport aux 12,628.7 8 TPS de l'A800 et à la latence moyenne de 15,750.8 ms. Avec Sysbench, l'A8 nous a donné 22,170.9 16 TPS pour 44,149.8 VM, 32 16.3 TPS pour 8 VM et 23.1 16 TPS pour 23.2 VM, avec des latences moyennes de 32 ms pour 31.3 VM, 8 ms pour 48.5 VM et 16 ms pour 48.1 VM, et des latences dans le pire des cas de 32 ms pour 800 VM, XNUMX ms pour XNUMX VM et XNUMX ms pour XNUMX VM. Dans certains cas, l'AXNUMX a pu doubler le TPS tout en réduisant la latence environ de moitié.
Pour nos charges de travail VDBench, le NetApp AFF A800 a continué de briller. Les points forts incluent 1.2 million d'IOPS en lecture 4K, 439K IOPS en écriture 4K, 18.9 Go/s en lecture séquentielle 64K et 5.03 Go/s en écriture 64K. Tous ces chiffres ont été atteints avec une latence inférieure à 5 ms. Lors de nos tests SQL, la baie a atteint 698 731 IOPS, 90 10 IOPS dans SQL 624-80 et 20 800 IOPS dans SQL 656-90. Dans Oracle, l'A10 a atteint 80 20 IOPS et dans Oracle 759-667 et Oracle 800-580, la baie avait une latence inférieure à la milliseconde avec des scores de pointe de 460 4.4 IOPS et XNUMX XNUMX IOPS, respectivement. Lors de nos tests VDI Clone, l'AXNUMX a pu atteindre des scores de démarrage de XNUMXK IOPS pour Full Clone et XNUMXK IOPS pour Linked Clone. La latence maximale la plus élevée au cours de tous nos tests n'était que de XNUMX ms.
Comme les systèmes ONTAP de milieu de gamme que nous avons examinés précédemment, NetApp sort une fois de plus du parc avec l'A800 axé sur l'entreprise. Le profil de performance est très fort, prenant sa position au sommet de la famille ONTAP. Comme indiqué, ce test est le travail de Fibre Channel de variété de jardin; nous n'avons pas encore reculé ce qui est disponible dans la configuration NVMeoF, ce qui devrait être très amusant. Lorsque l'on examine le matériel à examiner, on craint parfois que les anciens fournisseurs de stockage ne soient pas aussi rapides et flexibles que les startups et que le « code hérité » ne puisse pas suivre le rythme. Nous ne voyons aucun signe de ces problèmes dans le portefeuille NetApp, et en outre, l'A800 adopte NVMe et NVMeoF de manière pratique pour l'entreprise sans sacrifier les fonctionnalités de protection et de disponibilité des données inhérentes à ONTAP depuis des années. NetApp maîtrise parfaitement NVMe dans l'A800, nous sommes ravis de voir comment ces apprentissages se retrouvent dans leurs autres baies.
Inscrivez-vous à la newsletter StorageReview