ScaleFlux se concentre uniquement sur le stockage informatique à grande échelle. Son nouveau Computational Storage Device (CSD) 3000 est un SSD Gen4 avec des moteurs de compression et de décompression de données intégrés, qui, selon la société, peuvent quadrupler la capacité et doubler les performances. Nous mettrons ces affirmations à l'épreuve.
ScaleFlux se concentre uniquement sur le stockage informatique à grande échelle. Son nouveau Computational Storage Device (CSD) 3000 est un SSD Gen4 avec des moteurs de compression et de décompression de données intégrés, qui, selon la société, peuvent quadrupler la capacité et doubler les performances. Nous mettrons ces affirmations à l'épreuve.
Spécifications du ScaleFlux CSD 3000
Pour plus d'informations sur le stockage informatique, notre Test de ScaleFlux CSD 2000 (la version précédente du CSD 3000 examinée ici) est une lecture intéressante. En bref, le stockage informatique intègre les ressources informatiques dans le stockage lui-même au lieu de s'appuyer sur les ressources informatiques du système hôte.
La puissance de calcul du CSD 3000 provient du processeur de stockage SFX 3000, une puce SoC ARM personnalisée avec une accélération matérielle dédiée. Ce disque est disponible au format U.2.5 de 2 pouces avec des capacités de 3.2 To, 3.84 To, 6.4 Go et 7.68 To. Il utilise une interface PCIe Gen4 x4, une amélioration par rapport à l'interface Gen2000 du CSD 3.
ScaleFlux propose un lecteur similaire, le NSD 3000. Il a une compression intégrée mais n'a pas le multiplicateur de capacité du CSD 3000.
Les principales caractéristiques du CSD 3000 figurent dans le tableau ci-dessous.
Facteur de forme | 2.5″ U.2 (15 mm) |
Capacités par défaut | 3.2 To, 3.84 To, 6.4 To, 7.68 To |
Interface hôte | PCIe Gen4x4 |
Virtualisation | SR-IOV avec 15 fonctions virtuelles |
Sécurité
|
TCG Opal 2.0 avec accélération de la sécurité matérielle
|
Direction | NVMe-MI 1.1 sur SMBus
|
Puissance | <20W Typique, <5W Inactif
|
Fiabilité | Protection des chemins de données de bout en bout, perte de puissance
Protection, Correction d'erreur LDPC, NAND Die RAID |
Lecture séquentielle | 7.2 GB / s |
Écriture séquentielle | 4.8 Go/s* |
Lecture aléatoire (4 Ko) | 1450 KIOPS |
Écriture aléatoire (4 Ko) | 380 KIOPS* |
Maintien 70/30 Aléatoire 4kB Lire/écrire avec Compressible 2:1 Date | 1020 KIOPS |
Contexte des tests du ScaleFlux CSD 3000 et éléments comparables
Le StorageReview Enterprise Test Lab fournit une architecture flexible pour effectuer des tests de performances des périphériques de stockage d'entreprise dans un environnement comparable à ce que les administrateurs rencontrent dans des déploiements réels. Le laboratoire de test d'entreprise intègre une variété de serveurs, de réseaux, de conditionnement d'alimentation et d'autres infrastructures de réseau qui permettent à notre personnel d'établir des conditions réelles pour évaluer avec précision les performances lors de nos examens.
Nous intégrons ces détails sur l'environnement de laboratoire et les protocoles dans les revues afin que les professionnels de l'informatique et les responsables de l'acquisition du stockage puissent comprendre les conditions dans lesquelles nous avons obtenu les résultats suivants.
Banc d'essai ScaleFlux CSD 3000
Nous avons utilisé un système différent de notre banc d'essai habituel pour examiner le CSD 3000. Avec le lecteur aussi unique que celui-ci et la plate-forme de test différente exploitée, nous ne le comparerons pas directement aux SSD Gen4 NVMe traditionnels. Cet examen s'appuie sur notre serveur Intel OEM Scalable Gen3, qui est bien équipé de deux processeurs Intel 8380, offrant une puissance de processeur bien supérieure à ce qui est nécessaire pour mettre l'accent sur le stockage local hautes performances. Ses spécifications de haut niveau comprennent les éléments suivants :
- 2 x Intel évolutif Gen3 8380
- 32 x 32 Go DDR4 3200 MHz
- Ubuntu 20.04.2 Live Server (charges de travail synthétiques)
- VMware ESXi 7.0u2 (charges de travail d'application)
- 8 baies PCI Gen4 U.2 NVMe
Pour mesurer les performances du ScaleFlux CSD 3000, nous nous appuyons sur VDbench, qui peut ajuster le niveau de compression avant chaque charge de travail. Habituellement, ce paramètre est maintenu à 0 % par défaut, mais nous l'avons augmenté à 50 % pour un facteur de compression de 2:1 lors du test de ce SSD. Ces deux parcours sont reflétés dans les graphiques ci-dessous.
Performances du ScaleFlux CSD 3000
Note: Après avoir examiné le ScaleFlux CSD 3000, nous avons reçu deux modèles plus récents avec un firmware de production. Nous avons mis à jour l'examen avec les derniers résultats de ces deux points de capacité.
Analyse de la charge de travail VDBench
En ce qui concerne l'analyse comparative des périphériques de stockage, les tests d'application sont les meilleurs et les tests synthétiques viennent en deuxième position. Bien qu'ils ne soient pas une représentation parfaite des charges de travail réelles, les tests synthétiques aident à référencer les périphériques de stockage avec un facteur de répétabilité qui facilite la comparaison des solutions concurrentes.
Ces charges de travail offrent une gamme de profils de test différents allant des tests « aux quatre coins » et des tests de taille de transfert de base de données communs pour suivre les captures de différents environnements VDI. Ces tests exploitent le générateur de charge de travail vdBench commun, avec un moteur de script pour automatiser et capturer les résultats sur un grand cluster de test de calcul. Cela nous permet de répéter les mêmes charges de travail sur une large gamme de périphériques de stockage, y compris les baies flash et les périphériques de stockage individuels.
Notre processus de test pour ces benchmarks remplit toute la surface du disque avec des données, puis partitionne une section de disque égale à 25 % de la capacité du disque pour simuler la façon dont le disque pourrait répondre aux charges de travail des applications. Cela diffère des tests d'entropie complets, qui utilisent 100% du lecteur et les amènent dans un état stable. Par conséquent, ces chiffres refléteront des vitesses d'écriture plus soutenues.
Profils:
- Lecture aléatoire 4K : 100 % de lecture, 128 threads, 0-120 % d'iorate
- Écriture aléatoire 4K : 100 % d'écriture, 64 threads, 0-120 % de vitesse
- Lecture séquentielle 64K : 100 % de lecture, 16 threads, 0-120 % d'iorate
- Écriture séquentielle 64K : 100 % d'écriture, 8 threads, 0-120 % d'iorate
- Base de données synthétique : SQL et Oracle
- Traces de clone complet et de clone lié VDI
Le caractère unique de ce lecteur signifie que nous ne le comparerons qu'à lui-même. À titre de comparaison, nous examinerons le ScaleFlux CSD 3000 avec VDBench envoyant des données incompressibles et des données compressibles 2:1.
Dans notre première référence, lecture aléatoire 4K, les performances compressées du CSD 3000 ont régulièrement grimpé à 909K IOPS avec une latence de 139µs pour le modèle 7.68 To (le modèle 3.85 To était un peu en retrait par rapport aux autres). Le lecteur était légèrement plus lent sans compression et avec la même capacité, atteignant 886 142.4 IOPS à XNUMX µs.
Le CSD 3000 non compressé a montré une courbe semblable à des montagnes russes lors de notre prochain test, l'écriture aléatoire 4K, le modèle de 7.68 To affichant les meilleurs résultats des deux : culminant à 454 K IOPS avec une latence de 275.7 µs. Le lecteur compressé a montré de bien meilleurs résultats, se terminant tous les deux autour de 735K IOPS et 168.2 µs.
Passant aux tests séquentiels 64K, nous commençons par les performances de lecture, qui racontent une histoire similaire (les lecteurs compressés ayant à nouveau des nombres impressionnants). Les deux capacités avaient des performances pratiquement identiques, le modèle de 3.84 To dépassant légèrement la capacité supérieure de 113 7.06 IOPS (ou 282 Go/s) à 7.68 µs. Le meilleur disque non compressé (98 To) a atteint 326.8 XNUMX IOPS à XNUMX µs.
L'écriture séquentielle 64K, les résultats étaient encore plus favorables avec les versions compressées. Les deux capacités avaient à nouveau des performances identiques (bien que, comme vous pouvez le voir, le 3.84 To surpassait légèrement la plus grande capacité avec 96K IOPS à une latence de 154µs, restant bien en dessous de 100µs jusqu'à ce qu'il approche de 90K IOPS. Au contraire, le disque non compressé vu des pics sévères, terminant à 29K IOPS à 534µs pour la capacité de 7,68To et 25K IOPS à 616.6µs pour la capacité de 3.85To.
Notre prochaine série de tests concerne nos charges de travail SQL : SQL, SQL 90-10 et SQL 80-20. Le test de charge de travail SQL est le premier ; le CSD 3000 montre une courbe similaire lorsqu'il est compressé et non compressé avec les modèles haute capacité, bien que la version compressée soit légèrement meilleure avec 310K IOPS avec une latence de 101.9 µs.
Avec SQL 90-10, le CSD 7.68 compressé de 3000 To était à nouveau le disque le plus performant, complétant le test à 311 101.3 IOPS et une latence de 7.68 µs. En comparaison, le meilleur disque non compressé (également 285 To) a terminé à 110.8 XNUMX IOPS et XNUMX µs de latence.
Dans SQL 80-20, nous voyons les deux capacités du CSD 3000 compressé prendre les premières places, le modèle de 7.68 To se terminant à 319 IOPS avec une latence de 98.3 µs. Le 7.68 To non compressé était nettement en retard (bien que très proche du modèle de petite capacité) avec 277K IOPS à 113.5 µs.
Viennent ensuite nos charges de travail Oracle : Oracle, Oracle 90-10 et Oracle 80-20. Ici, les lecteurs CSD 3000 compressés ont maintenu leurs performances supérieures globales. En commençant par le test de charge de travail Oracle, le meilleur résultat était un lecteur de compression de 7.68 To avec 336 103.9 IOPS avec une latence de 7.68 µs. Le lecteur compressé de 279 To était bien en arrière, culminant à 126 XNUMX IOPS avec une latence de XNUMX µs.
Dans Oracle 90-10 ; le lecteur compressé de 7.86 To a terminé à 229 94.7 IOPS avec une latence de 3.84 µs. Les disques de 7.68 To (compressés) et de 214 To (non compressés) ont montré des performances identiques, avec 101.4 XNUMX IOPS à XNUMX µs de latence.
Passer à Oracle 80-20 a encore une fois raconté une histoire similaire. Le disque non compressé de 7.68 To a terminé à 237 91 IOPS avec une latence de 7.68 µs, tandis que le disque compressé de 213 To a été suivi avec 101.9 IOPS à une latence de seulement XNUMX µs.
Ensuite, nous sommes passés à nos tests de clone VDI, Full Clone (FC) et Linked Clone (LC). Tous les disques ont montré une instabilité mineure à la fin du démarrage FC VDI. Compressé, le CSD 7.68 de 3000 To a de nouveau terminé en tête avec 270 126.9 IOPS avec une latence de 7.68 µs ; compressé, sa capacité la plus performante du disque de 3.84 To (qui a en fait dépassé le disque compressé de 242 To) avec 141.9 XNUMX IOPS à une latence de XNUMX µs.
La connexion initiale VDI FC raconte une histoire différente, car les lecteurs compressés étaient de loin meilleurs tandis que les lecteurs non compressés étaient partout. Le disque compressé de 7.68 To a culminé à 244 117.2 IOPS avec une latence de 3.84 µs, tandis que le modèle de 210 To a culminé à 137.2 127 IOPS avec une latence de 231.1 µs. Les disques non compressés ont terminé à 7.68 94 IOPS avec une latence de 312.4 µs (3.84 To) et à XNUMX XNUMX IOPS avec une latence de XNUMX µs (XNUMX To).
Le CSD 3000 compressé a continué d'impressionner lors de notre dernier test FC, Monday Login, où son meilleur chiffre était de 144 106.9 IOPS avec une latence de 7.68 µs (7.68 To). Le lecteur non compressé de 100 To affichait 154.6 XNUMX IOPS avec une latence de XNUMX µs.
Nous allons maintenant passer aux tests LC, où tous les lecteurs ont montré des lignes stables lors du test de démarrage. Les disques compressés ont continué à dominer (en particulier le 7.68 To, qui affiche 131 120.1 IOPS et une latence de 7.68 µs). Le meilleur disque non compressé (110 To) a pu atteindre 144.4 IOPS à XNUMX µs.
Nous constatons un comportement instable des lecteurs non compressés dans LC Initial Login s'il approchait 20,000 49 IOPS; son nombre final était de 157.1 3.84 IOPS/56 µs (138 To) et de 7.68 73 IOPS/103.1 µs (3.84 To). Comme toujours, les disques compressés ont montré de meilleures performances et stabilité, complétant le test à 80 94.4 IOPS/7.68 µs (XNUMX To) et XNUMX XNUMX IOPS/XNUMX µs (XNUMX To).
Lors de notre tout dernier test, les disques non compressés se retrouvent toujours sous-performants par rapport aux versions compressées. Dans LC Monday Login, qui a de nouveau montré des pics de latence étranges pour les disques compressés, les 3.84 To et 7.68 To ont terminé respectivement à 62 250.1 IOPS/75 µs et 207.5 109 IOPS/140.9 µs. Le nombre final du lecteur compressé était bien meilleur à 3.84K IOPS/124µs (123.5To) et 7.68K IOPS/XNUMXµs (XNUMXTo).
Conclusion
ScaleFlux continue de se concentrer sur le stockage informatique. Le lecteur CSD 3000 que nous avons examiné dans cette revue améliore le CSD 2000 précédent principalement en offrant une interface PCIe Gen4, ce qui lui confère un potentiel de performances beaucoup plus élevé.
Nous avons testé le CSD 3000 sous Linux dans notre serveur évolutif Intel OEM Gen3 dans un état non compressé et à nouveau dans un état compressé 2:1 pour tirer parti des moteurs de compression intégrés du lecteur. Le disque a montré des performances supérieures et une latence plus faible dans tous les tests utilisant des données compressibles, souvent avec des deltas de performances à deux chiffres.
Les points forts des performances (meilleurs résultats/capacité) avec des données compressées incluent 909 4 IOPS en lecture aléatoire 7.68K pour le 886 To (contre 735 4 IOPS non compressés), 7.68 454 IOPS en écriture aléatoire 7.06K pour le 64 To (3.85 6.12 IOPS non compressés), 6 Go/s en Lecture séquentielle 64K pour le 1.82 To (XNUMX Go/s non compressé) et XNUMX Go/s en écriture séquentielle XNUMXK (XNUMX Go/s non compressé).
Le CSD 3000 a montré des nombres compressés et non compressés similaires dans nos tests SQL et Oracle, bien que le lecteur compressé soit plus cohérent. Dans un exemple, SQL 80-20, le lecteur compressé a atteint 319 IOPS à une latence de 98.3 µs (modèle de 7.68 To) tandis que le modèle non compressé était nettement en retard avec 277 113.5 IOPS à XNUMX µs.
Enfin, nos tests de clones complets et liés VDI ont révélé les différences les plus notables entre le CSD 3000 exécutant des données compressées et non compressées, c'est-à-dire que les données compressées fonctionnaient beaucoup mieux et de manière plus cohérente. Pour choisir un exemple, VDI LC Initial Login a montré les disques non compressés avec des performances de pointe de 49 157.1 IOPS/3.84 µs (56 To) et 138 7.68 IOPS/73 µs (103.1 To) tandis que les disques compressés ont terminé le test à 3.84 80 IOPS/94.4 µs ( 7.68 To) et XNUMX XNUMX IOPS/XNUMX µs (XNUMX To).
Sur une note d'avertissement, nous avons constaté des pics de latence inexpliqués et des performances réduites lors de l'exécution de données non compressées. Cela s'est produit lors de nos tests 4K/64K, SQL/Oracle et VDI FC/LC, il n'a donc pas été isolé dans un seul scénario.
Les atouts du CSD3000 seront mieux mis en évidence lorsqu'il pourra fonctionner avec des données compressibles, car c'est là qu'il aura les avantages les plus significatifs par rapport aux SSD traditionnels. ScaleFlux a également ajouté la prise en charge de VMWare avec cette version, ce qu'elle n'avait pas lorsque nous avons examiné l'ancien CSD 2000. C'est un gros plus, mais il manque toujours la prise en charge de la virtualisation Windows. Néanmoins, le CSD 3000 de ScaleFlux mérite d'être considéré si vous pouvez aligner vos charges de travail avec la prise en charge de la plate-forme et les forces de compression substantielles du lecteur.
S'engager avec StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS