Memblaze a publié une série de SSD NAND NVMe 64D à 3 couches dans la série PBlaze5 910-916. Les disques ont été lancés dans les formats U.2 et AIC, le 910 allant jusqu'à 15.36 To de capacité. La version la plus endurante du lecteur est la 916. Nous avons déjà examiné le SSD 916 U.2 et se concentrent maintenant sur la version HHHL AIC plus performante.
Memblaze a publié une série de SSD NAND NVMe 64D à 3 couches dans la série PBlaze5 910-916. Les disques ont été lancés dans les formats U.2 et AIC, le 910 allant jusqu'à 15.36 To de capacité. La version la plus endurante du lecteur est la 916. Nous avons déjà examiné le SSD 916 U.2 et se concentrent maintenant sur la version HHHL AIC plus performante.
Le SSD Memblaze PBlaze5 916 AIC offre tous les avantages de la version U.2, notamment le cryptage des données AES 256, la protection complète du chemin des données et la protection améliorée contre les pannes de courant. Les versions 916 ont également une endurance plus élevée, prenant en charge 3 DWPD par rapport à la 910 qui ne prend en charge que 1 DWPD. Le 916 AIC exploite les quatre voies supplémentaires pour pousser encore plus de performances avec des vitesses indiquées allant jusqu'à 5.9 Go/s en lecture et 2.8 Go/s en écriture avec un débit pouvant atteindre 1 million d'IOPS en lecture et 303 XNUMX IOPS en écriture.
Le SSD Memblaze PBlaze5 916 AIC est disponible en 3.2 To et 6.4 To, pour cette revue, nous examinons la version 6.4 To.
Spécifications AIC de la série Memblaze PBlaze5 916
Capacité utilisateur (To) | 3.2, 6.4 |
Facteur de forme | HHHL AIC |
Interface: | PCIe 3.0 x 8 |
Lecture séquentielle (128 Ko) (Go/s) | 5.5, 5.9 |
Écriture séquentielle (128 Ko) (Go/s) | 3.1, 3.8 |
Lecture aléatoire soutenue (4 Ko) IOPS | 850K, 1,000K |
Ecriture aléatoire soutenue (4 Ko) IOPS (état stable) | 210K, 303K |
Latence lecture/écriture | 87 / 11 μs |
Endurance à vie | 3 DWPD |
UBER | <10-17 |
MTBF | 2 millions d'heures |
Passerelle | NVMe 1.2a |
Mémoire Flash NAND | NAND eTLC 3D |
Le système d'exploitation | RHEL, SLES, CentOS, Ubuntu, Windows Serveur, VMware ESXi |
Consommation d'énergie | 7 ~ 25 W |
Prise en charge des fonctionnalités de base | Protection contre les pannes de courant, enfichable à chaud, protection complète du chemin des données, SMART : TRIM, multi-espace de noms, cryptage des données AES 256, redémarrage rapide, effacement du chiffrement, |
Prise en charge des fonctionnalités avancées | TRIM, multi-espace de noms, cryptage de données AES 256, redémarrage rapide, effacement cryptographique, double port |
Support logiciel | Outil de gestion open source, outil de débogage CLI, pilote intégré au système d'exploitation (Intégration facile du système) |
Performances
Banc d'essai
Nos critiques de SSD d'entreprise s'appuient sur un Lenovo ThinkSystem SR850 pour les tests d'application et un Dell PowerEdge R740xd pour les benchmarks synthétiques. Le ThinkSystem SR850 est une plate-forme à quatre processeurs bien équipée, offrant une puissance de processeur bien supérieure à ce qui est nécessaire pour mettre l'accent sur le stockage local hautes performances. Les tests synthétiques qui ne nécessitent pas beaucoup de ressources CPU utilisent le serveur biprocesseur plus traditionnel. Dans les deux cas, l'intention est de présenter le stockage local sous le meilleur jour possible, conformément aux spécifications maximales des lecteurs du fournisseur de stockage.
Lenovo Think System SR850
- 4 processeurs Intel Platinum 8160 (2.1 GHz x 24 cœurs)
- 16 x 32 Go DDR4-2666 Mhz ECC DRAM
- 2 cartes RAID RAID 930-8i 12 Go/s
- 8 baies NVMe
- VMwareESXI 6.5
Dell PowerEdge R740xd
- 2 processeurs Intel Gold 6130 (2.1 GHz x 16 cœurs)
- 4 x 16 Go DDR4-2666 MHz ECC DRAM
- 1x carte RAID PERC 730 2 Go 12 Go/s
- Adaptateur NVMe complémentaire
- Ubuntu-16.04.3-bureau-amd64
Contexte des tests et comparables
Votre partenaire Laboratoire de test d'entreprise StorageReview fournit une architecture flexible pour effectuer des tests de performances des périphériques de stockage d'entreprise dans un environnement comparable à ce que les administrateurs rencontrent dans les déploiements réels. Le laboratoire de test d'entreprise intègre une variété de serveurs, de réseaux, de conditionnement d'alimentation et d'autres infrastructures de réseau qui permettent à notre personnel d'établir des conditions réelles pour évaluer avec précision les performances lors de nos examens.
Nous intégrons ces détails sur l'environnement de laboratoire et les protocoles dans les revues afin que les professionnels de l'informatique et les responsables de l'acquisition du stockage puissent comprendre les conditions dans lesquelles nous avons obtenu les résultats suivants. Aucun de nos examens n'est payé ou supervisé par le fabricant de l'équipement que nous testons. Des détails supplémentaires sur le Laboratoire de test d'entreprise StorageReview et un aperçu de ses capacités de mise en réseau sont disponibles sur ces pages respectives.
Comparables pour cet avis :
- Memblaze PBlaze5 3.2 To
- Élément liquide AIC 7.68 To
- Intel SSD DC P4610 1.6 To
- Huawei ES3000 V5 3.2 To
- Intel SSD DC P4510 2 To, 8 To
- Memblaze PBlaze5 910 AIC 7.68 To
Analyse de la charge de travail des applications
Afin de comprendre les caractéristiques de performance des périphériques de stockage d'entreprise, il est essentiel de modéliser l'infrastructure et les charges de travail des applications trouvées dans les environnements de production en direct. Nos références pour le Memblaze PBlaze5 916 sont donc les Performances MySQL OLTP via SysBench et Performances OLTP de Microsoft SQL Server avec une charge de travail TCP-C simulée. Pour nos charges de travail d'application, chaque disque exécutera 2 à 4 machines virtuelles configurées de manière identique.
Performances du serveur SQL
Chaque machine virtuelle SQL Server est configurée avec deux vDisks : un volume de 100 Go pour le démarrage et un volume de 500 Go pour la base de données et les fichiers journaux. Du point de vue des ressources système, nous avons configuré chaque machine virtuelle avec 16 vCPU, 64 Go de DRAM et exploité le contrôleur LSI Logic SAS SCSI. Alors que nos charges de travail Sysbench testées saturaient la plate-forme à la fois en termes d'E/S de stockage et de capacité, le test SQL recherche les performances de latence.
Ce test utilise SQL Server 2014 s'exécutant sur des machines virtuelles invitées Windows Server 2012 R2 et est souligné par Benchmark Factory for Databases de Quest. StorageReview's Protocole de test OLTP Microsoft SQL Server utilise la version actuelle du Transaction Processing Performance Council's Benchmark C (TPC-C), une référence de traitement des transactions en ligne qui simule les activités trouvées dans des environnements d'application complexes. Le benchmark TPC-C est plus proche que les benchmarks de performances synthétiques pour évaluer les forces de performance et les goulots d'étranglement de l'infrastructure de stockage dans les environnements de base de données. Chaque instance de notre machine virtuelle SQL Server pour cet examen utilise une base de données SQL Server de 333 Go (échelle 1,500 15,000) et mesure les performances transactionnelles et la latence sous une charge de XNUMX XNUMX utilisateurs virtuels.
Configuration des tests SQL Server (par machine virtuelle)
- Windows Server 2012 R2
- Empreinte de stockage : 600 Go alloués, 500 Go utilisés
- SQL Server 2014
- Taille de la base de données : échelle 1,500 XNUMX
- Charge de client virtuel : 15,000 XNUMX
- Mémoire tampon : 48 Go
- Durée du test : 3 heures
- 2.5 heures de préconditionnement
- Période d'échantillonnage de 30 minutes
Pour notre benchmark transactionnel SQL Server, le Memblaze PBlaze5 916 AIC s'est retrouvé troisième avec 12,645.0 1.1 TPS alors qu'il n'était qu'à XNUMX TPS de la première place.
Pour mieux comprendre les performances, la latence doit également être examinée. Ici, le 916 AIC est arrivé deuxième avec seulement 1.3 ms, battant le reste de la série 910/916.
Performances de Sybench
Le prochain benchmark applicatif consiste en un Base de données Percona MySQL OLTP mesuré via SysBench. Ce test mesure également le TPS moyen (transactions par seconde), la latence moyenne et la latence moyenne au 99e centile.
Chaque Banc Sys La VM est configurée avec trois vDisks : un pour le démarrage (~92 Go), un avec la base de données prédéfinie (~447 Go) et le troisième pour la base de données testée (270 Go). Du point de vue des ressources système, nous avons configuré chaque machine virtuelle avec 16 vCPU, 60 Go de DRAM et exploité le contrôleur LSI Logic SAS SCSI.
Configuration des tests Sysbench (par machine virtuelle)
- CentOS 6.3 64 bits
- Percona XtraDB 5.5.30-rel30.1
- Tableaux de base de données : 100
- Taille de la base de données : 10,000,000 XNUMX XNUMX
- Threads de base de données : 32
- Mémoire tampon : 24 Go
- Durée du test : 3 heures
- 2 heures de préconditionnement 32 fils
- 1 heure 32 fils
Avec le benchmark transactionnel Sysbench, la 916 AIC se classe deuxième avec 9,298 XNUMX TPS.
Pour la latence moyenne de Sysbench, le 916 AIC est resté deuxième avec 13.8 ms.
Pour notre pire scénario de latence (99e centile), le 916 AIC a pris la première place avec une latence de seulement 25.2 ms.
Houdini par SideFX
Le test Houdini est spécifiquement conçu pour évaluer les performances de stockage en ce qui concerne le rendu CGI. Le banc d'essai pour cette application est une variante du noyau Dell PowerEdge R740xd type de serveur que nous utilisons en laboratoire avec deux processeurs Intel 6130 et 64 Go de DRAM. Dans ce cas, nous avons installé Ubuntu Desktop (ubuntu-16.04.3-desktop-amd64) fonctionnant en métal nu. La sortie de l'indice de référence est mesurée en secondes pour terminer, moins étant mieux.
La démo Maelstrom représente une section du pipeline de rendu qui met en évidence les capacités de performance du stockage en démontrant sa capacité à utiliser efficacement le fichier d'échange comme une forme de mémoire étendue. Le test n'écrit pas les données de résultat ou ne traite pas les points afin d'isoler l'effet de temps d'arrêt de l'impact de la latence sur le composant de stockage sous-jacent. Le test lui-même est composé de cinq phases, dont trois que nous exécutons dans le cadre du benchmark, qui sont les suivantes :
- Charge les points compactés à partir du disque. C'est le moment de lire à partir du disque. Il s'agit d'un thread unique, ce qui peut limiter le débit global.
- Déballe les points dans un seul tableau plat afin de permettre leur traitement. Si les points ne dépendent pas d'autres points, l'ensemble de travail peut être ajusté pour rester dans le noyau. Cette étape est multithread.
- (Non exécuté) Traite les points.
- Les remballe dans des blocs de compartiments adaptés au stockage sur disque. Cette étape est multithread.
- (Non exécuté) Réécrit les blocs compartimentés sur le disque.
Avec le test Houdini, le 916 AIC a obtenu un score de 3,070.7 910 secondes à l'atterrissage au point mort des disques non Optane et juste contre le XNUMX AIC.
Analyse de la charge de travail VDBench
Lorsqu'il s'agit de comparer les périphériques de stockage, les tests d'application sont les meilleurs et les tests synthétiques viennent en deuxième position. Bien qu'ils ne soient pas une représentation parfaite des charges de travail réelles, les tests synthétiques aident à référencer les périphériques de stockage avec un facteur de répétabilité qui facilite la comparaison de pommes à pommes entre des solutions concurrentes. Ces charges de travail offrent une gamme de profils de test différents, allant des tests « aux quatre coins », des tests de taille de transfert de base de données communs, aux captures de traces à partir de différents environnements VDI. Tous ces tests exploitent le générateur de charge de travail vdBench commun, avec un moteur de script pour automatiser et capturer les résultats sur un grand cluster de test de calcul. Cela nous permet de répéter les mêmes charges de travail sur une large gamme de périphériques de stockage, y compris les baies flash et les périphériques de stockage individuels. Notre processus de test pour ces benchmarks remplit toute la surface du disque avec des données, puis partitionne une section de disque égale à 25 % de la capacité du disque pour simuler la façon dont le disque pourrait répondre aux charges de travail des applications. Ceci est différent des tests d'entropie complète qui utilisent 100% du lecteur et les amènent dans un état stable. Par conséquent, ces chiffres refléteront des vitesses d'écriture plus soutenues.
Profils:
- Lecture aléatoire 4K : 100 % de lecture, 128 threads, 0-120 % d'iorate
- Écriture aléatoire 4K : 100 % d'écriture, 64 threads, 0-120 % de vitesse
- Lecture séquentielle 64K : 100 % de lecture, 16 threads, 0-120 % d'iorate
- Écriture séquentielle 64K : 100 % d'écriture, 8 threads, 0-120 % d'iorate
- Base de données synthétique : SQL et Oracle
- Traces de clone complet et de clone lié VDI
Dans notre première analyse de charge de travail VDBench, Lecture aléatoire 4K, le Memblaze PBlaze5 916 AIC a été comparé à deux autres disques AIC : le Memblaze PBlaze5 910 et le Liqid Element. Ici, la 916 a couru au coude à coude, tombant juste derrière la 910, avec le Liqid en tête. Le 916 a commencé à 81,010 99 IOPS avec 809,069 μs et a culminé à 157 XNUMX IOPS avec une latence de XNUMX μs.
L'écriture aléatoire 4K a montré le même emplacement pour le 916, en dernier. Ici, le 916 a démarré à 64,157 17.7 IOPS avec seulement 100 μs. Le lecteur a pu rester sous 25 μs, vraiment 578 μs, jusqu'à environ XNUMX XNUMX IOPS, où il a culminé avant de retomber.
En passant aux charges de travail séquentielles, nous examinons d'abord les lectures séquentielles de 64 916. Ici, le 910 est arrivé une fois de plus au bas de notre peloton juste derrière le 916. Le 50,011 a culminé à 3.13 319 IOPS ou XNUMX Go/s avec une latence de XNUMX μs.
L'écriture 64K a vu le 916 glisser en deuxième position juste derrière le 910. Ici, le 916 a commencé à 4,308 256 IOPS ou 50 Mo/s et a parcouru la ligne de latence de 30 μs jusqu'à 1.85 42,319 IOPS ou 2.65 Go/s avant de culminer à 370 XNUMX IOPS ou XNUMX. Go/s à une latence de XNUMX μs.
Ensuite, nos charges de travail SQL, ici encore le 916 était en bas mais seulement un poil du 916. Le 916 a commencé à 27,120 100.9 IOPS avec une latence de 269,845 μs et a culminé à 118.1 18 IOPS avec une latence de XNUMX μs. Seule une différence de latence de XNUMX μs se forme du début à la fin.
Pour SQL 90-10, le 916 était troisième avec 27,381 97.7 IOPS et une latence de 916 μs. Le 100 a dépassé 82 μs à environ 273,081 116.3 IOPS et a culminé à XNUMX XNUMX IOPS avec une latence de XNUMX μs.
Avec SQL 80-20, le placement du 916 était le même à partir de 28,023 88.9 IOPS et une latence de 277,572 μs et culminait à 114.6 XNUMX IOPS avec une latence de XNUMX μs.
Pour notre charge de travail Oracle, le 916 a à peine devancé le 910. Ici, le disque a commencé à 30,716 91.2 IOPS avec une latence de 282,888 μs et a culminé à 126.2 XNUMX IOPS avec une latence de XNUMX μs.
Oracle 90-10 a vu le 916 redescendre pour durer, à peine. Ici, le disque a commencé à 40,494 98.2 IOPS avec une latence de 202,512 μs et a culminé à 107.9 XNUMX IOPS avec une latence de XNUMX μs.
Pour Oracle 80-20, nous voyons à nouveau le 916 prendre à peine la deuxième place par rapport au 910. Le disque a commencé à 42,276 87.6 IOPS avec une latence de 100 μs et est resté sous 169 μs jusqu'à environ 210,628 103.8 IOPS pour culminer à XNUMX XNUMX IOPS avec une latence de XNUMX μs .
Ensuite, nous passons à notre test de clone VDI, Full et Linked. Pour VDI Full Clone Boot, le 916 a pris la troisième place à partir de 22,788 107.9 IOPS avec une latence de 218,323 μs et a culminé à 158.9 XNUMX IOPS avec une latence de XNUMX μs.
Pour la connexion initiale VDI FC, le 916 est arrivé deuxième derrière le 910 à partir de 15,487 69.7 IOPS avec une latence de 100 μs et est resté inférieur à 65 μs jusqu'à environ 147,777 199.4 IOPS. Le disque a culminé à XNUMX XNUMX IOPS et une latence de XNUMX μs.
VDI FC Monday Login a fait passer le 916 en premier à partir de 10,213 89.4 IOPS et une latence de 100 μs. Le disque est resté sous 35 μs jusqu'à environ 101,673 155.5 IOPS et a culminé à XNUMX XNUMX IOPS avec une latence de XNUMX μs.
Pour le VDI Linked Clone (LC), nous recommençons avec le test de démarrage. Ici, le 916 s'est classé troisième à partir de 9,598 127 IOPS avec une latence de 98,621 μs et a culminé à 161.6 XNUMX IOPS avec une latence de XNUMX μs.
Dans VDI LC Initial Login, le 916 a devancé le 910 pour prendre la deuxième place. Ici, le lecteur a démarré à 5,599 94.2 IOPS avec une latence de 100 μs et a dépassé 20 μs à environ 916 55,416 IOPS. Le 142.1 a culminé à XNUMX XNUMX IOPS avec une latence de XNUMX μs.
Enfin, le VDI LC Monday Login a vu le 916 prendre la première place avec une performance maximale de 78,483 201.3 IOPS et une latence de XNUMX μs.
Conclusion
Le Memblaze PBlaze5 916 est l'un des SSD 64D NAND NVMe à 3 couches de la société. Pour cet examen particulier, nous avons examiné le facteur de forme AIC. Le facteur de forme AIC offre tous les mêmes avantages que la ligne 916, le cryptage des données AES 256, la protection complète du chemin des données, la protection améliorée contre les pannes de courant et une endurance supérieure, tout en offrant des performances encore plus élevées que son homologue U.2. Le 916 AIC a indiqué des vitesses allant jusqu'à 5.9 Go/s en lecture et 2.8 Go/s en écriture avec un débit pouvant atteindre 1 million d'IOPS en lecture et 303 3 IOPS en écriture avec XNUMXDWPD.
Pour notre analyse de la charge de travail des applications, l'AIC Memblaze PBlaze5 916 a montré de bonnes performances à la fois dans SQL Server et Sysbench. Le lecteur est arrivé en troisième position dans SQL Server Output avec 12,645 1.3 TPS et une latence moyenne de 916 ms, ce qui le place en deuxième position. Pour Sysbench, le 9,298 AIC avait 13.8 25.2 TPS, une latence moyenne de 3070.7 ms, et a pris la première place dans notre pire scénario de latence avec XNUMX ms. Houdini a montré une performance moins forte avec XNUMX secondes.
Pour notre VDBench, nous avons testé le 916 AIC par rapport à deux autres modèles AIC, le Memblaze PBlaze5 910 AIC et le Liqid Element AIC. Ici, les performances étaient bonnes, mais le placement donnait l'impression d'être mitigé. Souvent, la 916 est arrivée en dernier contre les deux autres disques, mais elle était à une distance de reniflement de la 910 à chaque fois. Les points forts incluent un score de lecture 4K aléatoire de 809K IOPS, un score d'écriture 4K aléatoire de 578K IOPS, un score séquentiel 64K de 3.13 Go/s et un score d'écriture séquentielle de 2.65 Go/s. Ce qui est plus intéressant ici, c'est la latence. Même au pic, 370 μs étaient les plus élevés, le lecteur fonctionnant sous 25 μs pendant la majorité des écritures 4K aléatoires. SQL a montré des scores maximaux supérieurs à un quart de million d'IOPS dans chaque test et une latence allant de 88.9 μs à seulement 118.1 μs, très faible et constante dans tous les tests. Les scores de pointe d'Oracle n'étaient pas aussi forts que SQL (bien que le premier ait été de 283 87.6 IOPS), mais il y avait une autre preuve de faible latence constante allant de 126.2 μs à XNUMX μs au pic le plus élevé.
Le Memblaze PBlaze5 916 AIC est un choix idéal pour les applications nécessitant une latence constante et faible. Bien que la nature de la carte d'extension lui fasse renoncer à l'échange à chaud (ce qui en fait une maintenance potentiellement plus élevée, bien qu'elle ait également une endurance élevée), elle compense largement cela en termes de performances, en particulier les performances de latence.
Inscrivez-vous à la newsletter StorageReview