Plus tôt cette année, QSAN a lancé son premier SAN All-Flash avec le QSAN XCubeFAS XF2026D. Au lieu d'être une mise à jour de la gamme XCubeSAN de QSAN, le XCubeFAS XF2026D est un tout nouveau produit SAN. Le produit repose sur la convivialité, peut être déployé et intégré dans n'importe quel environnement et est abordable quelle que soit la taille de l'entreprise.
Plus tôt cette année, QSAN a lancé son premier SAN All-Flash avec le QSAN XCubeFAS XF2026D. Au lieu d'être une mise à jour de la gamme XCubeSAN de QSAN, le XCubeFAS XF2026D est un tout nouveau produit SAN. Le produit repose sur la convivialité, peut être déployé et intégré dans n'importe quel environnement et est abordable quelle que soit la taille de l'entreprise.
Les fondations exposées ci-dessus constituent l'objectif principal du QSAN XCubeFAS XF2026D. La société déclare que le nouveau SAN peut être utilisé par tous et géré en quelques clics. QSAN indique que des fonctionnalités telles que la création de volumes multiples, la réplication automatique à distance, la surveillance SSD et l'analyse des performances sont faciles à utiliser. QSAN indique également que le XF2026D peut être déployé et intégré dans n'importe quel environnement de données, qu'il ait besoin de hautes performances ou de certaines fonctionnalités idéales pour des cas d'utilisation tels que les environnements de virtualisation, l'analyse de données volumineuses et la gestion d'applications exigeantes. Tout ce qui précède vient avec les revendications d'abordabilité.
Le QSAN XCubeFAS XF2026D est un SAN 2U doté d'une architecture à double contrôleur actif. Le SAN offre une haute disponibilité en concevant tout avec une redondance complète. Il dispose également d'un mécanisme de basculement/de restauration automatique et d'une mise en miroir du cache via le bus NTB (pont non transparent) pour obtenir une fonctionnalité active-active. Avec ces fonctionnalités, le XF2026D revendique une disponibilité de 99.9999 %.
Une autre nouvelle fonctionnalité qui améliore également la fiabilité des données est la protection de la mémoire Cache-to-Flash. Cette technologie préserve les données du cache en cas de coupure de courant. Le XF2026D exploite un module de batterie de secours pour transférer les données du cache vers un module flash M.2 garantissant qu'aucune donnée n'est perdue et qu'aucune incohérence ne se produit.
Spécifications QSAN XCubeFAS XF2026D
Facteur de forme | 2U |
Processeur | Processeur Intel Xeon à 4 cœurs (un modèle de processeur à 8 cœurs est également disponible) |
Mémoire (par contrôleur) | Jusqu'à 128 Go DDR4 ECC |
Contrôleur RAID | Contrôleur double actif-actif |
Protection mémoire | Module Cache vers Flash Module batterie de secours + module Flash |
Connectivité hôte | |
Logement de carte hôte 1 | (optionnel): 4 ports FC 16 Go (SFP+) 2 ports FC 16 Go (SFP+) 4 ports iSCSI 10 GbE (SFP+) 2 ports iSCSI 10GbE (RJ45) |
Logement de carte hôte 2 | (optionnel): 4 ports FC 16 Go (SFP+) 2 ports FC 16 Go (SFP+) 4 ports iSCSI 10 GbE (SFP+) 2 ports iSCSI 10GbE (RJ45) |
2 ports iSCSI 10GBASE-T (RJ45) intégrés 1 port de gestion 1GbE intégré |
|
Rangements | |
Baies | 26 |
Type d'entraînement | SAS 2.5 pouces, SSD SED |
Nombre maximum de lecteurs pris en charge | 130 |
Expansion | |
Connectivité | 2 ports larges SAS 12 Gb/s intégrés (SFF-8644) |
Compétences | Jusqu'à 4 unités d'extension utilisant le boîtier d'extension SAS XD5326 (SFF 26 baies) 12 Go |
Puissance | |
Approvisionnement | 80 PLUS Platinum, deux 770W redondants (1+1) |
Entrée CA | 100 – 127 V 10 A, 50-60 Hz 200 – 240 V 5A, 50-60 Hz |
Sortie DC | + 12V 63.4A +5VSB 2.0A |
Module de ventilation | 2 x modules de ventilation enfichables à chaud/redondants |
Température | |
Opérateurs | 0 à 40 ° C |
Livraison | -10 ° C à 50 ° C |
Humidité relative | 20%-80% |
Garanties | Système de 3 ans, batterie de secours d'un an |
Concevoir et construire
Comme indiqué, le QSAN XCubeFAS XF2026D est un SAN 2U et la conception reste conforme aux autres produits QSAN. À l'avant se trouvent les 26 baies de lecteur de 2.5 pouces avec le bouton de déverrouillage vert signature. Sur le côté droit du panneau avant se trouvent le bouton d'alimentation du système, le bouton UID (identifiant unique), les voyants d'accès au système et d'état du système et un port USB pour le module USB LCM.
L'arrière de l'appareil comporte les deux alimentations redondantes, ainsi que les deux contrôleurs. Chaque contrôleur dispose d'une connectivité réseau jumelle 10Gbase-T intégrée, en plus d'une interface de gestion hors bande. Pour une connectivité supplémentaire, chaque contrôleur dispose de deux emplacements pour carte hôte, qui peuvent être chargés avec des cartes 8/16 Go à deux ou quatre ports, ou des cartes Ethernet 10 Go à deux ou quatre ports. Cela offre aux utilisateurs un large éventail d'options pour connecter le stockage dans un environnement de centre de données diversifié. Les capacités d'extension sont également prises en charge via deux ports SAS 12 Gb/s par contrôleur, permettant des étagères d'extension SAS 3.0. Dans le coin supérieur gauche se trouve le module de mémoire et de batterie Flash-to-Cache.
Direction
Avec ce SAN vient un nouveau système d'exploitation de gestion de QSAN, XEVO. Cette interface graphique HTML5 suit des principes similaires à ceux des anciens modèles QSAN, en particulier la facilité d'utilisation. La page principale ou le tableau de bord offre une vue rapide de tout ce qu'un administrateur peut avoir besoin de savoir immédiatement. Cela inclut les alertes matérielles, la capacité utilisée, les alertes système, la vue d'ensemble du stockage et les performances en temps réel. Il y a plusieurs onglets en haut qui incluent : Tableau de bord, Stockage, Hôtes, Protection, Analyse, Système et Messages.
Sous l'onglet Stockage, les utilisateurs peuvent voir les pools de stockage ou en créer de nouveaux. Dans le pool, ils peuvent voir la quantité de stockage utilisée, la santé et l'état du stockage, ainsi que les groupes de disques et les volumes.
Dans l'onglet Analyse, les utilisateurs peuvent voir des informations importantes telles que les performances d'un volume (décomposées en latence, IOPS et débit) ainsi que l'utilisation de la capacité d'un volume.
L'onglet Système affiche le matériel et ce qu'il fait actuellement. Les utilisateurs peuvent choisir entre les sous-onglets Baies, Paramètres, Ports de données et Maintenance. Sous le sous-onglet Arrays, les utilisateurs peuvent survoler des éléments tels que l'icône de température pour voir la température de l'hôte sélectionné.
Les utilisateurs peuvent également survoler un disque spécifique pour voir le type, la température, l'état et la durée de vie restante estimée.
Dans l'ensemble, l'interface utilisateur et la gestion constituent un grand pas en avant pour QSAN. Les systèmes antérieurs n'étaient pas difficiles à gérer, mais cette apparence est bien meilleure. À une époque où une interface HTML5 utilisable est un enjeu de table, QSAN coche cette case.
Performances
Analyse de la charge de travail des applications
Les benchmarks de charge de travail d'application pour le QSAN XCubeSAN XF2026D comprennent les performances OLTP de MySQL via SysBench et les performances OLTP de Microsoft SQL Server avec une charge de travail TPC-C simulée. Dans chaque scénario, la baie était configurée avec 26 SSD Toshiba PX04SV SAS 3.0, configurés en deux groupes de disques RAID12 à 10 disques, un épinglé à chaque contrôleur. Cela a laissé 2 SSD en réserve. Deux volumes de 5 To ont ensuite été créés, un par groupe de disques. Dans notre environnement de test, cela a créé une charge équilibrée pour nos charges de travail SQL et Sysbench.
Performances du serveur SQL
Chaque machine virtuelle SQL Server est configurée avec deux vDisks : un volume de 100 Go pour le démarrage et un volume de 500 Go pour la base de données et les fichiers journaux. Du point de vue des ressources système, nous avons configuré chaque machine virtuelle avec 16 vCPU, 64 Go de DRAM et exploité le contrôleur LSI Logic SAS SCSI. Alors que nos charges de travail Sysbench testées saturaient la plate-forme à la fois en termes d'E/S de stockage et de capacité, le test SQL recherche les performances de latence.
Ce test utilise SQL Server 2014 s'exécutant sur des machines virtuelles invitées Windows Server 2012 R2 et est souligné par Benchmark Factory for Databases de Quest. Alors que notre utilisation traditionnelle de cette référence a été de tester de grandes bases de données à l'échelle 3,000 1,500 sur un stockage local ou partagé, dans cette itération, nous nous concentrons sur la répartition uniforme de quatre bases de données à l'échelle 2026 XNUMX sur le QSAN XFXNUMXD (deux machines virtuelles par contrôleur).
Configuration des tests SQL Server (par machine virtuelle)
- Windows Server 2012 R2
- Empreinte de stockage : 600 Go alloués, 500 Go utilisés
- SQL Server 2014
- Taille de la base de données : échelle 1,500 XNUMX
- Charge de client virtuel : 15,000 XNUMX
- Mémoire tampon : 48 Go
- Durée du test : 3 heures
- 2.5 heures de préconditionnement
- Période d'échantillonnage de 30 minutes
SQL Server OLTP Benchmark Usine Équipement LoadGen
- Dell EMC PowerEdge R740xd Cluster virtualisé SQL à 4 nœuds
- 8 processeurs Intel Xeon Gold 6130 pour 269 GHz en cluster (deux par nœud, 2.1 GHz, 16 cœurs, 22 Mo de cache)
- 1 To de RAM (256 Go par nœud, 16 Go x 16 DDR4, 128 Go par processeur)
- 4 HBA FC double port Emulex 16 Go
- 4 x Mellanox ConnectX-4 rNDC 25GbE double port NIC
- VMware ESXi vSphere 6.5/Enterprise Plus 8-CPU
Avec le score transactionnel de SQL Server, le XF2026D avait un score global de 12,635.5 3,158.7 TPS avec des machines virtuelles individuelles allant de 3,159 XNUMX à XNUMX XNUMX TPS.
Pour la latence moyenne de SQL Server, le XF2026D avait un score global de 5.0 ms.
Performances de Sybench
Chaque Banc Sys La machine virtuelle est configurée avec trois vDisks, un pour le démarrage (~ 92 Go), un avec la base de données pré-construite (~ 447 Go) et le troisième pour la base de données testée (270 Go). Du point de vue des ressources système, nous avons configuré chaque machine virtuelle avec 16 vCPU, 60 Go de DRAM et exploité le contrôleur LSI Logic SAS SCSI. Les systèmes de génération de charge sont des serveurs Dell R740xd.
Cluster à 740 nœuds MySQL virtualisé Dell PowerEdge R4xd
- 8 processeurs Intel Xeon Gold 6130 pour 269 GHz en cluster (deux par nœud, 2.1 GHz, 16 cœurs, 22 Mo de cache)
- 1 To de RAM (256 Go par nœud, 16 Go x 16 DDR4, 128 Go par processeur)
- 4 HBA FC double port Emulex 16 Go
- 4 x Mellanox ConnectX-4 rNDC 25GbE double port NIC
- VMware ESXi vSphere 6.5/Enterprise Plus 8-CPU
Configuration des tests Sysbench (par machine virtuelle)
- CentOS 6.3 64 bits
- Empreinte de stockage : 1 To, 800 Go utilisés
- Percona XtraDB 5.5.30-rel30.1
- Tableaux de base de données : 100
- Taille de la base de données : 10,000,000 XNUMX XNUMX
- Threads de base de données : 32
- Mémoire tampon : 24 Go
- Durée du test : 3 heures
- 2 heures de préconditionnement 32 fils
- 1 heure 32 fils
Dans notre benchmark Sysbench, nous avons testé plusieurs ensembles de 8VM, 16VM et 32VM. En termes de performances transactionnelles, le XF2026D a atteint 12,983.8 8 TPS pour 22,484.4VM, 16 29,893.9 TPS pour 32VM et XNUMX XNUMX TPS pour XNUMXVM.
Avec une latence moyenne, le XF2026D avait 19.7 ms pour 8 VM, 23 ms pour 16 VM et 36 ms pour 32 VM.
Dans notre benchmark de latence dans le pire des cas, le XF2026D a atteint 34.8 ms pour 8 VM, 41.7 ms pour 16 VM et 65.6 ms pour 32 VM.
Analyse de la charge de travail VDBench
Lorsqu'il s'agit de comparer les baies de stockage, les tests d'application sont les meilleurs et les tests synthétiques viennent en deuxième position. Bien qu'ils ne soient pas une représentation parfaite des charges de travail réelles, les tests synthétiques aident à référencer les périphériques de stockage avec un facteur de répétabilité qui facilite la comparaison de pommes à pommes entre des solutions concurrentes. Ces charges de travail offrent une gamme de profils de test différents allant des tests « aux quatre coins », des tests de taille de transfert de base de données communs, ainsi que des captures de traces à partir de différents environnements VDI. Tous ces tests exploitent le générateur de charge de travail vdBench commun, avec un moteur de script pour automatiser et capturer les résultats sur un grand cluster de test de calcul. Cela nous permet de répéter les mêmes charges de travail sur une large gamme de périphériques de stockage, y compris les baies flash et les périphériques de stockage individuels. Côté baie, nous utilisons notre cluster de serveurs Dell PowerEdge R740xd :
Profils:
- Lecture aléatoire 4K : 100 % de lecture, 128 threads, 0-120 % d'iorate
- Écriture aléatoire 4K : 100 % d'écriture, 64 threads, 0-120 % de vitesse
- Lecture séquentielle 64K : 100 % de lecture, 16 threads, 0-120 % d'iorate
- Écriture séquentielle 64K : 100 % d'écriture, 8 threads, 0-120 % d'iorate
- Base de données synthétique : SQL et Oracle
- Traces de clone complet et de clone lié VDI
Dans les performances de lecture de pointe 4K, le XF2026D a commencé avec une latence inférieure à la milliseconde, a parcouru un peu la ligne de 1 ms et a dépassé 1 ms autour de 15 403,790 IOPS. Le SAN a culminé à 6.03 XNUMX IOPS avec une latence de XNUMX ms.
Avec les écritures aléatoires 4K, nous constatons une amélioration de la latence avec le XF2026D maintenant une latence inférieure à la milliseconde jusqu'à environ 250K IOPS et atteignant un pic à environ 270K IOPS avec une latence de 4.4 ms avant de chuter.
Passant à 64K séquentiel, le XF2026D a commencé juste un cheveu sous 1 ms en lecture avant de passer au-dessus, puis de culminer à un peu plus de 125K IOPS ou 7.8 Go/s avec une latence d'environ 4.1 ms avant de chuter légèrement.
Avec 64K d'écriture, nous constatons à nouveau une meilleure latence avec le XF2026D maintenant une latence inférieure à la milliseconde jusqu'à environ 64K IOPS ou 4 Go/s et atteignant un pic à 70,731 4.4 IOPS ou 3.6 Go/s avec XNUMX ms de latence.
Ensuite, notre charge de travail SQL a vu le XF2026D rester sous 1 ms jusqu'à environ 210 362,807 IOPS et culminer à 2.62 XNUMX IOPS avec une latence de XNUMX ms.
Dans SQL 90-10, le XF2026D avait une latence inférieure à la milliseconde jusqu'à environ 200 328,209 IOPS et culminait à 2.82 XNUMX IOPS avec une latence de XNUMX ms.
Pour SQL 80-20, le XF2026D est resté inférieur à 1 ms jusqu'à environ 120 296,772 IOPS et a culminé à 3.1 XNUMX IOPS avec une latence de XNUMX ms.
Le prochain lot de benchmarks concerne les charges de travail Oracle, le XF2026D restant inférieur à 1 ms jusqu'à environ 125 293,975 IOPS et ayant un pic de 3.91 XNUMX IOPS et une latence de XNUMX ms.
Pour Oracle 90-10, le XF2026D a atteint 230 327,269 IOPS avec une latence inférieure à la milliseconde et a atteint un pic de 1.91 XNUMX IOPS avec une latence de XNUMX ms.
Dans le benchmark Oracle 80-20, le XF2026D avait des performances de latence inférieures à la milliseconde jusqu'à environ 130 296,549 IOPS et culminait à 2.1 XNUMX IOPS avec XNUMX ms de latence.
Ensuite, nous sommes passés à nos tests de clone VDI, Full Clone (FC) et Linked Clone (LC). Pour VDI FC Boot, le XF2026D avait des performances de latence inférieures à la milliseconde jusqu'à un peu moins de 10 247,710 IOPS avec un pic de 3.84 XNUMX IOPS et une latence de XNUMX ms.
La connexion initiale au VDI FC a vu le XF2026D parcourir la ligne de 1 ms pendant un certain temps avec un pic d'environ 65 7.2 IOPS à une latence de XNUMX ms avant de chuter un peu.
Avec VDI FC Monday Login, le XF2026D a mieux démarré en termes de latence, restant sous 1 ms jusqu'à environ 48 72,224 IOS et atteignant un pic de 4.73 XNUMX IOPS avec une latence de XNUMX ms.
En passant au clone lié (LC), nous avons d'abord examiné le test de démarrage. Dans ce scénario, le XF2026D avait des performances de latence inférieures à la milliseconde jusqu'à environ 65 152,191 IOPS et culminait à 3.22 XNUMX IOPS avec XNUMX ms de latence.
Avec VCI LC Initial Login, nous avons déjà constaté une latence plus forte avec le XF2026D restant inférieur à 1 ms jusqu'à environ 35 44,461 IOPS avec un pic de 3.76 XNUMX IOPS à une latence de XNUMX ms.
Enfin, notre VDI LC Monday Login a fait démarrer le XF2026D juste en dessous de 1 ms et sur la ligne de 1 ms jusqu'à 35 46 IOPS avant de culminer à environ 5.4 XNUMX IOPS avec une latence de XNUMX ms.
Conclusion
Le QSAN XCubeFAS XF2026D est le dernier SAN de la société et le premier SAN 2 % flash. Le SAN 9U est construit autour de la haute disponibilité avec redondance intégrée et offre six 2026 de disponibilité. Le XF2D dispose de la technologie Cache-to-Flash qui déplace les données mises en cache vers un module M.XNUMX en cas de panne de courant. Dans l'ensemble, l'appareil est conçu pour être simple à utiliser et à déployer, facile à intégrer dans n'importe quel environnement et abordable, quelle que soit la taille de l'entreprise.
Dans notre analyse de la charge de travail des applications, le XCubeFAS XF2026D a pu atteindre un score global de 12,635.5 5 TPS avec une latence moyenne de 2026 ms dans SQL Server. Ceci est en ligne avec les deux versions précédentes que nous avons testées. Dans Sysbench, le XF12,983.8D a surpassé la version précédente avec des performances transactionnelles de 8 22,484.4 TPS pour 16VM, 29,893.9 32 TPS pour 2026VM et 19.7 8 TPS pour 23VM. La latence moyenne de Sysbench a vu le XF16D avec 36 ms pour 32 VM, 34.8 ms pour 8 VM et 41.7 ms pour 16 VM. Et la latence du pire scénario de Sysbench a montré que le nouveau SAN était légèrement meilleur avec 65.6 ms pour 32 VM, XNUMX ms pour XNUMX VM et XNUMX ms pour XNUMX VM.
Nos charges de travail VDBench ont montré une solide performance du SAN. Équipé de disques SAS, le SAN a pu atteindre certains points forts tels que 403K IOPS en lecture 4K, 270K IOPS en écriture 4K, 7.8 Go/s en lecture séquentielle 64K et 4.4 Go/s en écriture séquentielle 64K. Pour notre test SQL, le SAN a atteint 363 328 IOPS, 90 10 IOPS en 297-80 et 20 294 IOPS en 327-90. Les tests Oracle ont également montré de solides performances avec 10 297 IOPS, 80 20 IOPS en 248-152 et 1 1.91 IOPS en 7.2-XNUMX. Le SAN avait de solides démarrages de clone VDI avec XNUMXK IOPS en Full et XNUMXK IOPS en Linked. La latence a toujours commencé en dessous de XNUMX ms et a eu des pics allant de XNUMX ms à XNUMX ms
Inscrivez-vous à la newsletter StorageReview