Accueil Entreprise Test du Toshiba KumoScale NVMe-oF (Newisys NSS-1160G-2N)

Test du Toshiba KumoScale NVMe-oF (Newisys NSS-1160G-2N)

Clone d'instantanés KumoScale

Lors de l'Open Compute Project de cette année, Toshiba a annoncé la sortie de son nouveau logiciel autour de NVMe over Fabrics (NVMe-oF), KumoScale. KumoScale est conçu pour optimiser les performances des disques NVMe à connexion directe sur le réseau du centre de données grâce à la désagrégation, l'abstraction et l'intégration de la gestion. Le logiciel apporte les SSD NVMe déjà très performants en permettant aux nœuds de calcul sans disque (avec uniquement un lecteur de démarrage) d'accéder à ce stockage flash via une connectivité réseau à haute vitesse. Ce type de connexion amènera le stockage en réseau à des performances quasi optimales. 


Lors de l'Open Compute Project de cette année, Toshiba a annoncé la sortie de son nouveau logiciel autour de NVMe over Fabrics (NVMe-oF), KumoScale. KumoScale est conçu pour optimiser les performances des disques NVMe à connexion directe sur le réseau du centre de données grâce à la désagrégation, l'abstraction et l'intégration de la gestion. Le logiciel apporte les SSD NVMe déjà très performants en permettant aux nœuds de calcul sans disque (avec uniquement un lecteur de démarrage) d'accéder à ce stockage flash via une connectivité réseau à haute vitesse. Ce type de connexion amènera le stockage en réseau à des performances quasi optimales. 

Bien que ce logiciel puisse être utilisé dans n'importe quelle plate-forme système x86 standard, pour notre examen, nous utilisons le serveur à double nœud Newisys NSS-1160G-2N. La plate-forme Newisys NSS-1160G-2N est optimisée pour un modèle de service hyper-évolutif avec échange à chaud de disques NVMe, débit équilibré du réseau aux disques, entretien basé sur FRU d'allée froide, alimentation et refroidissement redondants ainsi que d'autres échelles clés. sur les exigences du centre de données. Notre serveur présente le stockage via deux cartes Mellanox 100G avec 8x SSD Toshiba NVMe sur un nœud, le deuxième nœud est utilisé à des fins de gestion. La génération de charge proviendra d'un seul Dell PowerEdge R740xd directement connecté au Newisys via deux cartes réseau 100G Mellanox ConnectX-5. Le Newisys peut contenir jusqu'à 16 cartes serveur NVMe et double Xeon dans son format compact 1U et est optimisé pour une latence la plus faible et des performances optimales avec des disques à connexion directe, bien que le serveur soit un peu plus long que ce à quoi nous sommes habitués dans nos racks . 

KumoScale présente plusieurs autres avantages par rapport aux SSD traditionnels à connexion directe. Tirer parti de NVMe-oF Les utilisateurs ont besoin de moins de nœuds pour atteindre une puissance de calcul et un stockage encore plus élevés. Avoir moins de nœuds signifie qu'ils peuvent être mieux gérés et réduire les coûts. Une partie de la réduction des coûts passerait par l'élimination du stockage bloqué et de la puissance de calcul. KumoScale utilise des API reposantes pour s'intégrer à plusieurs frameworks d'orchestration ; le plus intéressant, cela fonctionne avec Kubernetes. Cela permettra à ceux qui exploitent Kubernetes pour le stockage de conteneurs de le faire avec des performances bien supérieures, avec juste la bonne quantité de stockage provisionné. Outre Kubernetes, KumoScale fonctionne également avec OpenStack, Lenovo XClarity et Intel RSD.

Direction

Comme un peu hors concours, KumoScale est livré avec une interface graphique assez légère et intuitive. Généralement, ce type de solution est contrôlé via la CLI (et en fait, plusieurs aspects le seront encore). Sur l'onglet du tableau de bord, les utilisateurs peuvent facilement voir les performances de stockage, la capacité du système et l'état du matériel, et peuvent approfondir un peu l'état du SSD individuel. 

L'onglet suivant est l'onglet réseau qui affiche la disponibilité et l'état de la liaison du ou des contrôleurs, ainsi que le type, la vitesse, l'adresse MAC et la MTU.

L'onglet de stockage se décompose en quatre sous-onglets. Le premier sous-onglet est les SSD physiques. Ici, les utilisateurs peuvent voir les disques par leur nom, s'ils sont disponibles ou non, leurs numéros de série, leur capacité, leur utilisation de groupe et le pourcentage de vie restant. 

Le sous-onglet suivant dans les groupes de stockage virtualisés. Ce sous-onglet est similaire au précédent avec le nom, la disponibilité, la capacité, ainsi que l'espace disponible, le SSD physique à partir duquel il est virtualisé et sa cible. 

Le sous-onglet suivant, Cibles, développe les cibles ci-dessus et affiche le stockage virtualisé exposé à l'hôte, y compris les volumes de groupe. 

Le dernier sous-onglet sous stockage est l'onglet initiateurs. Cet onglet donne le nom des initiateurs, l'alias (dans ce cas Dell) et le nombre d'accès. L'utilisateur peut accorder le contrôle d'accès (ACL) pour la paire cible-initiateur.

L'onglet principal suivant est Performances de stockage. Ici, les utilisateurs peuvent voir une lecture du débit, des IOPS et de la latence pour une période donnée. 

Et enfin, nous arrivons aux performances du réseau, qui donnent également aux utilisateurs une ventilation des mesures de performances, de la bande passante et des paquets pour un temps donné.

Performances

Analyse de la charge de travail VDBench

Lorsqu'il s'agit de comparer les baies de stockage, les tests d'application sont les meilleurs et les tests synthétiques viennent en deuxième position. Bien qu'ils ne soient pas une représentation parfaite des charges de travail réelles, les tests synthétiques aident à référencer les périphériques de stockage avec un facteur de répétabilité qui facilite la comparaison de pommes à pommes entre des solutions concurrentes. Ces charges de travail offrent une gamme de profils de test différents allant des tests « aux quatre coins », des tests de taille de transfert de base de données communs, ainsi que des captures de traces à partir de différents environnements VDI. Tous ces tests exploitent le générateur de charge de travail vdBench commun, avec un moteur de script pour automatiser et capturer les résultats sur un grand cluster de test de calcul. Cela nous permet de répéter les mêmes charges de travail sur une large gamme de périphériques de stockage, y compris les baies flash et les périphériques de stockage individuels. Côté baie, nous utilisons notre cluster de serveurs Dell PowerEdge R740xd :

Profils:

  • Lecture aléatoire 4K : 100 % de lecture, 128 threads, 0-120 % d'iorate
  • Écriture aléatoire 4K : 100 % d'écriture, 64 threads, 0-120 % de vitesse
  • Lecture séquentielle 64K : 100 % de lecture, 16 threads, 0-120 % d'iorate
  • Écriture séquentielle 64K : 100 % d'écriture, 8 threads, 0-120 % d'iorate
  • Base de données synthétique : SQL et Oracle
  • Traces de clone complet et de clone lié VDI

Dans les performances de lecture de pointe 4K, le Newisys avec KumoScale (appelé « nœud de stockage » pour le reste de cette revue car c'est le seul appareil examiné) a eu des performances inférieures à la milliseconde tout au long du test, culminant à 2,981,084 260 XNUMX IOPS avec un latence de XNUMXμs.

Dans les performances d'écriture de pointe 4K, le nœud de stockage a culminé à 1,926,637 226 XNUMX IOPS avec une latence de XNUMX μs.

En passant à une lecture de pointe de 64 213,765, le nœud de stockage avait une performance de pointe de 13.36 441 IOPS ou XNUMX Go/s avec une latence de XNUMX μs.

Pour une écriture de pointe séquentielle de 64 141,454, le nœud de stockage a atteint 8.83 432 IOPS ou XNUMX Go/s avec une latence de XNUMX μs.

Dans notre charge de travail SQL, le nœud de stockage a culminé à 1,361,815 179 XNUMX IOPS avec une latence de XNUMX μs.

Dans le benchmark SQL 90-10, nous avons constaté des performances maximales de 1,171,467 210 XNUMX IOPS avec une latence de seulement XNUMX μs.

Le benchmark SQL 80-20 a montré que le nœud de stockage atteignait une performance maximale de 987,015 248 IOPS avec une latence de XNUMX μs.

Avec Oracle Workload, le nœud de stockage avait une performance maximale de 883,894 280 IOPS avec une latence de XNUMX μs.

L'Oracle 90-10 a montré des performances maximales de 967,507 176 IOPS avec une latence de XNUMX μs.

Dans l'Oracle 80-20, le nœud de stockage a pu atteindre 829,765 204 IOPS avec une latence de XNUMX μs.

Ensuite, nous sommes passés à notre test de clone VDI, Full et Linked. Pour VDI Full Clone Boot, le nœud de stockage a culminé à 889,591 261 IOPS avec une latence de XNUMX μs.

La connexion initiale VDI Full Clone a vu le nœud de stockage atteindre un pic de 402,840 562 IOPS avec une latence de XNUMX μs. 

La connexion VDI Full Clone Monday a montré une performance maximale de 331,351 369 IOPS et une latence de XNUMX μs.

Passant à VDI Linked Clone, le test de démarrage a montré une performance maximale de 488,484 234 IOPS et une latence de XNUMX μs.

Dans le profil Linked Clone VDI mesurant les performances de la connexion initiale, le nœud de stockage a culminé à 194,781 318 IOPS avec une latence de XNUMX μs.

Dans notre dernier profil, nous examinons les performances de la connexion VDI Linked Clone Monday. Ici, le nœud de stockage a culminé à 247,806 498 IOPS avec une latence de XNUMX μs.

Conclusion

Conçu pour maximiser les performances du stockage par blocs, le logiciel KumoScale regroupe les SSD NVMe pour fournir la bonne quantité de capacité et d'IOPS qui peuvent être partagées par des milliers d'instances de travail sur NVMe-oF. Cela donne aux utilisateurs du cloud plus de flexibilité, d'évolutivité et d'efficacité. Bien que KumoScale puisse être utilisé dans plusieurs options matérielles différentes pour créer le nœud de stockage (Toshiba recommande le processeur Intel Xeon E5-2690 v4 à 2.30 GHz ou équivalent et 64 Go de DRAM), nous avons utilisé le serveur à double nœud Newisys NSS-1160G-2N. Non seulement NVMe-oF amènera le stockage à des performances presque optimales, mais KumoScale fonctionne également avec plusieurs cadres d'orchestration, notamment Kubernetes, OpenStack, Lenovo XClarity et Intel RSD.

Le système Newisys alimenté par Toshiba KumoScale peut certainement apporter le tonnerre en termes de performances. Nulle part le nœud de stockage n'a failli dépasser 1 ms, la latence la plus élevée était de 562 μs lors de la connexion initiale VDI FC. Parmi les faits saillants, citons près de 3 millions d'IOPS en lecture 4K, près de 2 millions en écriture 4K, 1.3 million d'IOPS dans la charge de travail SQL, 1.1 million d'IOPS dans le SQL 90-10 et près d'un million dans le SQL 1-80. Pour des performances séquentielles de 20K, le nœud de stockage a atteint 64 Go en lecture et 13.36 Go/s en écriture.

Bien qu'il ne fasse aucun doute que les performances sont astronomiques, mettre KumoScale dans son contexte le fait vraiment briller. La latence et les performances sont considérablement meilleures sur cette plate-forme que sur les autres plates-formes non NVMe-oF. La latence est plus proche de celle des performances de stockage local, ce qui correspond exactement à ce que recherche le protocole NVMe-oF et aux exigences des applications sur lesquelles ces systèmes sont positionnés. Les performances à grande échelle de ce système sont ce qui devrait vraiment compter. Nous avons examiné les performances de 8 SSD dans un nœud de stockage, où les systèmes de production auraient plusieurs nœuds de stockage, chacun avec ses propres pools de stockage. Les performances dans ce scénario prévu font exploser facilement les métriques des baies de stockage traditionnelles, faisant de KumoScale un changeur de jeu en ce qui concerne les baies NVMe-oF. Toshiba a extrêmement bien réussi à offrir des performances efficaces avec KumoScale et il dispose même d'une interface graphique pour l'évaluation et le développement. Associée au châssis Newisys, cette solution trouvera certainement le succès dans les grands centres de données qui peuvent tirer parti des avantages de débit et de latence offerts par le logiciel Toshiba KumoScale.

Toshiba KumoBalance

Newisys 

Discutez de cet avis

Inscrivez-vous à la newsletter StorageReview