Accueil Entreprise Test du X-IO Technologies ISE 860 G3 : partie 2

Test du X-IO Technologies ISE 860 G3 : partie 2

Dans la partie 1 de notre revue X-IO Technologies ISE 860 G3, nous avons présenté un aperçu de ce qu'est l'ISE 860 G3 et nous avons examiné les références d'application et synthétiques. Dans un bref récapitulatif, la plate-forme a extrêmement bien fonctionné dans tout ce que nous lui avons lancé, y compris MySQL, SQL Server et les charges de travail synthétiques. Pour la deuxième partie de notre examen, nous allons étendre nos tests de virtualisation VMware de l'ISE 860 G3 avec des tests VMmark, échouer un contrôleur sous charge et stresser le moteur QoS sur l'ISE 860 G3 sous les charges de travail MySQL.


Dans la partie 1 de notre revue X-IO Technologies ISE 860 G3, nous avons présenté un aperçu de ce qu'est l'ISE 860 G3 et nous avons examiné les références d'application et synthétiques. Dans un bref récapitulatif, la plate-forme a extrêmement bien fonctionné dans tout ce que nous lui avons lancé, y compris MySQL, SQL Server et les charges de travail synthétiques. Pour la deuxième partie de notre examen, nous allons étendre nos tests de virtualisation VMware de l'ISE 860 G3 avec des tests VMmark, échouer un contrôleur sous charge et stresser le moteur QoS sur l'ISE 860 G3 sous les charges de travail MySQL.

Analyse des performances VMmark

Comme pour toutes nos analyses de performances applicatives, nous essayons de montrer comment les produits fonctionnent dans un environnement de production en direct par rapport aux performances annoncées par l'entreprise. Nous comprenons l'importance d'évaluer le stockage en tant que composant de systèmes plus importants, et surtout la réactivité du stockage lors de l'interaction avec les principales applications d'entreprise. Dans ce test, nous utilisons le Benchmark de virtualisation VMmark par VMware dans un environnement multi-serveurs.

De par sa conception même, VMmark est une référence à forte intensité de ressources, avec un large éventail de charges de travail d'applications basées sur des machines virtuelles mettant l'accent sur le stockage, le réseau et l'activité de calcul. Lorsqu'il s'agit de tester les performances de la virtualisation, il n'y a presque pas de meilleure référence, car VMmark examine de nombreuses facettes, couvrant les E/S de stockage, le processeur et même les performances réseau dans les environnements VMware.

Spécifications du cluster à 730 nœuds Dell PowerEdge R4 VMware VMmark

  • Serveurs Dell PowerEdge R730 (x4)
  • Processeurs : Huit Intel Xeon E5-2690 v3 2.6 GHz (12C/24T)
  • Mémoire : 64 x 16 Go DDR4 RDIMM
  • Adaptateur de bus hôte double port Emulex LightPulse LPe16002B 16 Go FC
  • Carte réseau Ethernet double port Emulex OneConnect OCe14102-NX 10 Go
  • VMware ESXi 6.0

ISE 860 G3 (20 disques SSD de 1.6 To par DataPac)

  • ​Avant RAID : 51.2 To
  • Capacité RAID 10 : 22.9 To
  • Capacité RAID 5 : 36.6 To
  • Prix ​​catalogue : 575,000 $

Dans notre premier aperçu des performances de VMware VMmark avec le XIO ISE 860, nous utilisons le Grappe Dell PowerEdge R730 13G à 4 nœuds comme moteur de la charge de travail. Avec huit processeurs Intel E5-2690 v3 Haswell, ce cluster offre 249.6 GHz de ressources CPU pour les applications exécutées dans le cadre de chaque tuile VMmark. En général, nous avons vu une exigence d'environ 10 GHz par tuile, ce qui signifie que ce cluster dans des conditions optimales devrait être capable de fonctionner entre 24 et 26 tuiles. Au-delà de cela, l'ajout de serveurs supplémentaires dans le cluster ou le passage à un processeur de niveau supérieur tel que le E5-2697 v3 ou le E5-2699 v3 serait nécessaire. C'est une autre façon de dire que lorsque ce cluster sera épuisé, le stockage aura très probablement encore de la marge disponible pour aller plus haut.

En faisant évoluer la charge de travail VMmark sur le XIO ISE 860, nous avons constaté une forte amélioration linéaire de 1 à 22 tuiles. Après 22 tuiles, les performances ont commencé à diminuer légèrement à mesure que notre cluster de calcul fixait son utilisation du processeur. Avec un cluster plus grand, le XIO ISE 860 pourrait facilement gérer une charge supplémentaire. Plonger dans la surveillance des performances dans les coulisses le confirme, avec une latence inférieure à 1 ms lors de nos 26 exécutions de tuiles, avec une poignée de pics à un chiffre lors des actions svmotion/deploy. Les performances à faible latence étant un must absolu pour une baie 860 % flash, le X-IO ISE XNUMX ne déçoit pas du tout.

Test de défaillance du contrôleur

Il existe différentes conceptions de SAN sur le marché ainsi que des différences de configuration telles que actif/passif et actif/actif. En ce qui concerne la gestion des pannes, les deux conceptions permettent à un contrôleur de secours ou secondaire de prendre en charge les tâches de stockage si le contrôleur principal se déconnecte. Nous nous intéressons de plus en plus à montrer comment différentes plates-formes font face aux défaillances des contrôleurs, car toutes les plates-formes ne sont pas égales. Le scénario que nous avons conçu est plutôt basique à la base ; déployez une charge de travail importante sur la baie de stockage, attendez que la charge de travail atteigne un état stable, puis tirez un contrôleur. Au cours de ce processus, nous examinons comment les caractéristiques de performances changent, surveillons l'activité d'E/S abandonnée et, surtout, à quelle vitesse la plate-forme reprend la charge de travail testée. Pour le X-IO ISE 860, nous avons utilisé notre charge de travail Sysbench, avec 4 instances réparties sur deux volumes.

Avec 4 machines virtuelles Sysbench exécutées sur l'ISE 860, nous avons attendu environ 15 minutes pour que la charge de travail se stabilise sur la baie de stockage. À cette époque, la charge de travail mesurait environ 1,100 3 TPS par machine virtuelle. Avec un contrôleur retiré, nous avons vu les performances diminuer pendant 4 à 10 secondes sur toutes les machines virtuelles, faire une pause d'environ 6.0 secondes, puis reprendre rapidement le niveau de performances mesuré avant la panne. Nos hôtes VMware ESXi XNUMX ont facilement fait face à cette interruption d'E/S de stockage et ont continué à fonctionner comme si de rien n'était.

À partir de X-IO ISE Manager Suite, nous avons pu constater l'échec après environ 5 minutes (un rafraîchissement manuel peut l'avoir montré plus tôt). 10 à 15 minutes après avoir retiré le contrôleur, nous avons également reçu une alerte par e-mail automatisée du support X-IO nous avertissant également de la défaillance du contrôleur.

Pour ramener l'ancien contrôleur dans le giron (ou ajouter le contrôleur de remplacement dans la baie), il vous suffit d'insérer le contrôleur à l'arrière de la baie, de laisser la baie détecter/analyser le contrôleur et d'indiquer qu'il est capable de fusionner avec la baie. . Ce processus a pris quelques minutes, présentant un bouton "Ajouter" dans la vue du contrôleur ISE Manager. Une fois cliqué, nous avons constaté une baisse similaire des performances, suivie de quelques secondes de pause d'E / S avant que la baie ne revienne à la normale. Tout comme l'échec d'origine, VMware ESXi 6.0 n'a eu aucun problème à gérer cette interruption et nous n'avons constaté aucune erreur au niveau du système d'exploitation invité. Toutes les baies de stockage ne sont pas créées égales à cet égard, et il est agréable de voir que l'ISE 860 pourrait facilement gérer une panne catastrophique.

QoS de X-IO Technologies ISE 860 G3

Nous avons brièvement abordé la QoS dans la première partie de notre revue, ici nous allons y jeter un œil plus approfondi. X-IO offre une fonctionnalité QoS sur ses baies de stockage ISE. Les paramètres QoS sont appliqués au niveau du volume, où l'utilisateur peut spécifier IOPS Max, IOPS Min et IOPS Burst. Alors que les résultats synthétiques peuvent être utiles pour montrer à quel point les profils QoS fonctionnent sur un appareil donné, voir comment les applications y répondent est beaucoup plus précieux. Nous avons de nouveau utilisé notre charge de travail Sysbench MySQL TPC-C dans cette section, car elle offre une excellente capacité de surveillance des performances en temps réel. Notre scénario a tiré parti d'un déploiement de 4 machines virtuelles, avec deux machines virtuelles sur un volume et les deux autres sur un autre volume. Un volume a été conçu pour être un cas d'utilisation de "production", où nous ne voulions aucune restriction de performances par rapport à un benchmark non réglementé, tandis que l'autre volume serait un cas d'utilisation de "développement". Cela refléterait un paramètre d'entreprise dans lequel vous avez besoin de plusieurs instances de base de données s'exécutant sur le stockage principal, mais les instances de développement ne seraient pas autorisées à avoir un impact sur les machines virtuelles de production.

L'activation de la QoS et sa configuration au niveau du volume sont très simples sur le X-IO ISE 860. Les paramètres sont accessibles via les mêmes menus lors du provisionnement des volumes, où la valeur par défaut est « stockage régulé » ou performances complètes. Pour activer la QoS, il vous suffit d'entrer une valeur IOPS et, par quelques essais et erreurs, de voir comment cela affecte votre charge de travail. Il est utile de surveiller d'abord le niveau d'IOPS de votre charge de travail sans restriction via la vue des performances sur le gestionnaire ISE pour obtenir une ligne de base. Dans ce cas, 2 VM Sysbench ont consommé plus de 20,000 30 IOPS. Nous avons donc défini un maximum de 40 20 IOPS, une rafale d'IOPS de XNUMX XNUMX et un minimum de XNUMX XNUMX IOPS sur le volume exécutant notre charge de travail de production. Pour notre volume de développement, nous avons effectué quelques itérations pour voir l'impact de la limitation du profil d'E/S sur notre exécution Sysbench en direct.

Le premier exemple montre que Sysbench s'exécute sur notre volume de production, avec QoS activé. Nous n'avons constaté aucun changement de performances par rapport au stockage régulé ou totalement illimité.

Sur notre charge de travail de développement Sysbench, nous avons pu facilement contrôler le profil de performances, ce qui s'est traduit par des niveaux de performances stables, quoique inférieurs. Dans l'exemple ci-dessous, nous sommes passés d'un profil défini sur la moitié des performances de notre volume de production à un profil abaissant le niveau d'IOPS à 25 % de l'original. Comme vous pouvez le constater, le changement de performances a eu lieu immédiatement, sans interruption d'E/S ni instabilité d'E/S. Pour les acheteurs préoccupés par les voisins bruyants qui peuvent affecter les charges de travail hautement prioritaires, X-IO offre un ensemble de fonctionnalités QoS hautement performant qui fonctionne très bien dans des conditions réelles.

Partie 2 Réflexions finales

Le deuxième segment de cette série d'examens examine en détail les problèmes de performance et de service. Sur le plan des performances, l'ISE 860 a supprimé 26 tuiles dans VMmark, maximisant la capacité du cluster à 4 nœuds. Pour aller plus loin, avec sa latence d'écriture de charge de 26 tuiles était incroyablement faible, mesurant moins de 1 ms, avec des pointes inférieures à 10 ms. L'ISE a clairement plus de marge ici, ce que nous explorerons plus en détail. Prendre tout ce que les quatre serveurs pouvaient lancer n'est pas une mince affaire, mais était néanmoins attendu car l'ISE continue de démontrer des performances fantastiques sur une variété de charges de travail.

Au-delà des performances, l'un des titres de gloire de X-IO avec la série ISE est le manque de maintenance. Faire échouer un disque dans ce cas ne fonctionnera pas, X-IO agrège le stockage pour obscurcir intentionnellement les disques individuels eux-mêmes, même si vous pouvez y accéder physiquement pendant le fonctionnement. Dans ce cas, nous avons moins que gracieusement tiré un contrôleur pour voir ce qui arrive aux charges de travail actives. Avec un petit coup sec lorsque le deuxième contrôleur a absorbé la charge, tout s'est poursuivi sans problème dans vCenter ou les systèmes d'exploitation invités. Nous avons également plongé dans les fonctionnalités QoS de l'ISE, qui permettent des contrôles stricts par volume. Les capacités QoS matures ne sont pas largement présentes sur les baies de stockage principales, donc avoir ce niveau d'accès granulaire est un avantage, en particulier pour ceux qui exécutent des charges de travail de développement non critiques sur le stockage principal ou qui ont des voisins bruyants qui peuvent souvent bien manger plus que leur juste part de ressources.

Nous continuerons à travailler avec l'ISE 860 à mesure que nous développerons nos stratégies de test pour cette nouvelle génération de stockage hautes performances. Les prochaines étapes incluent des tests sur un Cisco UCS Mini avec huit lames et quelques charges de travail supplémentaires avec lesquelles les baies flash peuvent exceller.

Test du X-IO Technologies ISE 860 G3 : partie 1

Page produit de la série ISE 800 G3

Inscrivez-vous à la newsletter StorageReview