Accueil Entreprise Amélioration du stockage haute performance : SSD DapuStor Haishen5 H5100 E3.S

Amélioration du stockage haute performance : SSD DapuStor Haishen5 H5100 E3.S

by Brian Beeler

Les SSD hautes performances comme le DapuStore Haishen5 H5100 sont cruciaux pour les applications avancées telles que l'IA et le HPC.

Les données sont plus précieuses que jamais. Il est donc essentiel de disposer de solutions de stockage performantes, fiables et économes en énergie. Le SSD DapuStor Haishen5 H5100 E3.S répond à ces besoins avec une technologie avancée et une ingénierie réfléchie. Nous avons mis 16 des H5100 à l’œuvre pour voir à quel point ces SSD Gen5 modernes sont rapides et performants.

DapuStor Haishen5 H5100 E3.S SSD

Le H5100 représente un bond en avant significatif en termes de performances de stockage, s'appuyant sur les bases des SSD Gen4 de DapuStor. Tirant parti du dernier contrôleur d'entreprise Marvell Bravera PCIe Gen5, du KIOXIA BiCS8 3D TLC NAND et du micrologiciel DapuStor sur mesure, ce disque offre le double du débit par rapport à ses homologues Gen4. Avec des vitesses de lecture séquentielle allant jusqu'à 14,000 9,500 Mo/s et des vitesses d'écriture allant jusqu'à 5 5100 Mo/s, le HaishenXNUMX HXNUMX réduit considérablement les temps d'accès aux données et la latence, essentiels pour les charges de travail modernes comme celles de l'IA et du HPC.

DapuStor Haishen5 H5100 E3.S SSD - Paire

DapuStor Haishen5 H5100 E3.S SSD

Les IOPS en lecture et en écriture aléatoires atteignent respectivement 2.8 millions et 380 4, tandis que les latences de lecture aléatoire 54K sont inférieures à 8 microsecondes et les latences d'écriture sont inférieures à XNUMX microsecondes. Ces améliorations de performances se traduisent par un traitement des données plus rapide, une réactivité améliorée du système et la capacité de gérer des charges de travail plus intensives, ce qui en fait un choix idéal pour les applications qui exigent un transfert de données et une efficacité de stockage à haut débit.

Les centres de données et les hyperscalers modernes sont confrontés à bien plus que de simples problèmes de performances. L’efficacité énergétique est de plus en plus critique. Le contrôleur KIOXIA BiCS8 3D NAND et Marvell Bravera SC5 se combinent pour offrir une capacité et une efficacité énergétique élevées. La technologie d'empilement vertical du BiCS8 permet d'atteindre jusqu'à 32 To avec une consommation d'énergie réduite. En revanche, la gestion dynamique de l'énergie et le traitement efficace des données du Bravera SC5 garantissent des performances optimales et une consommation d'énergie minimale, ce qui le rend idéal pour les applications d'entreprise exigeantes.

La flexibilité de la conception est également essentielle. Alors que les nouveaux serveurs migrent de U.2 vers E3.S et les hyperscalers, même NVIDIA propose plusieurs applications pour E1.S, les fournisseurs de SSD doivent prendre en charge une plus grande variété de facteurs de forme. Avec le H5100, il est essentiel de noter que DapuStor prend en charge l'ancien facteur de forme U.2 dans Gen5. Ils prennent également en charge les disques d'une capacité de 3.84 To et 7.68 To dans les formats E3.S et E1.S EDFFF, offrant plusieurs avantages en termes de densité et d'efficacité par rapport aux disques U.2.

Un autre aspect intéressant du DapuStor H5100 est la conception du firmware. Le contrôle de leur micrologiciel permet à DapuStor d'intégrer plus facilement la façon dont tous les composants du lecteur interagissent. Cet avantage se manifeste de nombreuses manières, allant d'une qualité de service plus stricte à la prise en charge de fonctionnalités avancées telles que le placement flexible des données (FDP). DapuStor personnalisera le micrologiciel d'un lecteur pour des cas d'utilisation spécifiques si un client a des exigences en dehors du cadre standard. Les fonctionnalités personnalisables incluent les ajustements du micrologiciel, les paramètres de sécurité, le réglage des performances et les configurations de gestion de l'alimentation.

Le SSD H5100 intègre des fonctionnalités avancées de qualité de service (QoS) pour garantir des performances constantes et l'intégrité des données sur diverses charges de travail. Ces fonctionnalités QoS permettent au disque de gérer et de prioriser efficacement les opérations d'E/S, en maintenant une faible latence et un débit élevé, même dans des conditions exigeantes.

La technologie FDP du DapuStor H5100 optimise la gestion des données au sein du lecteur. En permettant aux données d'être écrites dans différents espaces physiques, FDP améliore les performances, l'endurance et l'efficacité globale du stockage. Cette fonctionnalité avancée permet de réduire l'amplification de l'écriture et améliore la capacité du disque à gérer efficacement des charges de travail mixtes. Bien qu'il ne soit actuellement visible que dans le monde des hyperscalers, FDP prend un essor considérable au sein d'OCP, et grâce aux avantages inhérents en matière d'endurance qu'offre FDP, il ne faudra pas longtemps avant que des applications plus courantes en profitent.

Spécifications du SSD DapuStor Haishen5 H5100

Spécification 3.84 To (E3.S) 7.68 To (E3.S) 3.84 To (U.2 15 mm) 7.68 To (U.2 15 mm) 15.36 To (U.2 15 mm) 30.72 B (U.2 15 mm) 3.84 To (E1.S) 7.68 To (E1.S)
Interface
PCIe 5.0x4, NVMe 2.0
Bande passante en lecture (128 Ko) Mo/s 14000 14000 14000 14000 14000 14000 14000 14000
Bande passante en écriture (128 Ko) Mo/s 6300 8800 6300 8800 9500 9500 4800 5000
Lecture aléatoire (4 Ko) KIOPS 2800 2800 2800 2800 2800 2800 2800 2800
Écriture aléatoire (4 Ko) KIOPS 300 380 300 380 380 380 200 200
Latence aléatoire 4K (Typ.) RW µs 57/8 54/8 56/8 54/8 54/8 54/8 57/8 54/8
Latence séquentielle 4K (Typ.) RW µs
Latence de lecture 7 µs/Latence d'écriture 8 µs
Puissance typique (W) 18 18 18 19 19 19 17.5 17.5
Puissance au ralenti (W) 7 7 7 5 5 5 7 7
Type de flash
Flash NAND eTLC 3D
Endurance
1
MTBF
2.5 millions d'heures
UBER
1 secteur par 10^17 bits lus
Garanties
5 ans

Résultats de performance

Pour mieux comprendre les performances des SSD DapuStor Haishen5 H5100 E3.S, nous avons testé 16 disques de 7.68 To dans un serveur de stockage Supermicro. Le Supermicro Storage A+ ASG-1115S-NE316R est un serveur rackable 1U hautes performances pour les applications gourmandes en données. Il prend en charge 16 disques NVMe E3.S remplaçables à chaud, ce qui en fait un banc de test idéal pour ces SSD. Ce serveur est alimenté par un seul processeur AMD EPYC 9634 à 84 cœurs et 384 Go de mémoire DDR5 ECC.

Nous avons utilisé la solution Graid pour agréger les SSD DapuStor. Les déchargements Graid écrivent le travail de calcul de parité sur un GPU, libérant ainsi des ressources système pour d'autres processus. Pour les plates-formes PCIe Gen4/5, Graid utilise actuellement le GPU NVIDIA A2000. La carte double largeur d'origine avec un refroidisseur d'air actif sur la plupart des plates-formes suffira. Dans cette plateforme Supermicro 1U dotée de deux emplacements simple largeur, Graid a cependant une solution. Ils ont une version modifiée du NVIDIA A2000 avec un refroidisseur passif fin, permettant son utilisation sur des plates-formes de serveur avec flux d'air mais pas d'espace pour quelque chose de similaire à un GPU plus épais.

Avec Graid en place, nous avons regroupé le stockage dans un grand pool RAID5, combinant 16 des SSD DapuStor Haishen7.68 H5 E5100.S de 3 To pour créer un volume de 105 To. La taille de bande par défaut de Graid pour les volumes est de 4 Ko. Bien que les performances du flash JBOD puissent fournir des performances supérieures, il existe un risque de perte totale de données en cas de panne d'un SSD. Une solution RAID protège contre cet événement de perte de disque et constitue un meilleur choix pour ce scénario de test.

Avec 16 SSD DapuStor Haishen5 H5100 PCIe Gen5 dans un grand groupe HW RAID5 Graid, nous commençons par une bande passante maximale et des tests d'E/S de pointe. Il s’agit d’une considération importante pour les clients. La protection de parité est cruciale pour éviter la perte de données en cas de panne de disque. Cependant, il est essentiel d'éviter d'introduire trop de surcharge qui pourrait limiter les performances du système.

En regardant la bande passante de lecture maximale en se concentrant sur une taille de transfert de données de 1 Mo, nous avons assisté à un incroyable débit de 205 Go/s pour ce groupe RAID. Cela équivaut à 12.8 Go/s par disque pour le groupe RAID16 de 5 disques. En écriture séquentielle, nous avons mesuré 105 Go/s au total ou 6.6 Go/s par SSD. Ceux-ci se rapprochent des numéros de fiche technique pour les SSD de 14 Go/s en lecture et 8.8 Go/s en écriture.

We regardez les vitesses de transfert aléatoires 4K pour mesurer le débit de pointe. La lecture aléatoire 4K a atteint 18.1 millions d'IOPS et 74.3 Go/s, tandis que l'écriture aléatoire 4K a atteint 1.873 millions d'IOPS et 7.7 Go/s.

Débit de pointe et bande passante
Débit RAID DapuStor 7.68 To x 16 matériels Bande passante RAID DapuStor 7.68 To x 16 HW Latence RAID DapuStor 7.68 To x 16 HW
1 Mo de lecture séquentielle (84T/16Q) 129k IOPS 205GB / s 6.9ms
1 Mo d'écriture séquentielle (84T/16Q) 100k IOPS 105GB / s 13.4ms
Lecture aléatoire 4K (84T/32Q) 12.8 M IOPS 52.4GB / s 0.21ms
Lecture aléatoire 4K (84T/256Q) 18.1 M IOPS 74.3GB / s 1.184ms
Écriture aléatoire 4K (84T/32Q) 1.873 M IOPS 7.7GB / s 0.717ms

Bien que les tests de lecture ou d'écriture statiques soient importants pour mesurer la bande passante ou le débit maximal, les performances d'E/S mixtes sur une large gamme de tailles de blocs montrent les performances du stockage dans des cas d'utilisation plus traditionnels.

Nous commençons avec une taille de bloc 4K, comprise entre 70 % et 90 % de pourcentage de lecture. Avec une charge de travail aléatoire de 70 % en lecture et 30 % en écriture appliquée au groupe RAID DapuStor Haishen5 H5100 16 SSD, nous avons mesuré un débit de 4.173 millions d'IOPS et 17.1 Go/s. Tout en maintenant une latence moyenne de seulement 0.644 ms. En augmentant le mélange de lecture à 80 %, le débit a augmenté à 5.762 millions d'IOPS et 23.6 Go/s. Avec un mélange de lecture de 90 %, les performances ont continué à évoluer jusqu'à 7.36 millions d'IOPS et 30.1 Go/s.

Débit et bande passante aléatoires 4K mixtes
Débit RAID DapuStor 7.68 To x 16 HW Bande passante RAID DapuStor 7.68 To x 16 HW Latence RAID DapuStor 7.68 To x 16 HW
4K aléatoire 70/30 (84T/32Q) 4.173 M IOPS 17.1GB / s 0.644ms
4K aléatoire 80/20 (84T/32Q) 5.762 M IOPS 23.6GB / s 0.466ms
4K aléatoire 90/10 (84T/32Q) 7.360 M IOPS 30.1GB / s 0.365ms

En augmentant la taille des blocs à 8 Ko, nous nous rapprochons des charges de travail traditionnelles de base de données et OLTP. Ici, le groupe RAID matériel 16 SSD Gen5 a continué de nous impressionner par ses performances incroyables. Avec un mélange de lecture de 70 %, nous avons mesuré 2.956 millions d'IOPS ou 24.3 Go/s. Avec un mélange de lecture de 80 %, le débit est passé à 4.024 M IOPS et la bande passante à 33 Go/s. Avec un mix de lecture de 90 %, nous avons mesuré un fort 5.939 millions d'IOPS à 48.7 Go/s, avec une latence moyenne de seulement 0.452 ms.

Débit et bande passante aléatoires 8K mixtes
Débit RAID DapuStor 7.68 To x 16 matériels Bande passante RAID DapuStor 7.68 To x 16 matériels Latence RAID matérielle DapuStor 7.68 To x 16
8K aléatoire 70/30 (84T/32Q) 2.956 M IOPS 24.3GB / s 0.909ms
8K aléatoire 80/20 (84T/32Q) 4.024 M IOPS 33GB / s 0.668ms
8K aléatoire 90/10 (84T/32Q) 5.939 M IOPS 48.7GB / s 0.452ms

La taille de bloc de 16 Ko a obtenu les meilleurs résultats lors de nos tests de charge de travail aléatoires. Grâce au RAID matériel accéléré par GPU réunissant les 16 SSD H5100 Gen5 dans RAID5, nous avons pu augmenter la bande passante utilisable de la plate-forme. En commençant avec un mélange de lecture de 70 %, nous avons mesuré 1.938 M IOPS et 31.7 Go/s. À 80 % de lecture, cela est passé à 2.484 millions d'IOPS et 40.6 Go/s, soit près de seulement 1 ms de latence moyenne. Au pic de lecture de 90 %, la baie de stockage a pu mesurer 3.63 millions d'IOPS et 59.4 Go/s de bande passante totale, un chiffre incroyable si l'on considère qu'il s'agit d'E/S aléatoires frappant la baie.

Débit et bande passante aléatoires 16K mixtes
Débit RAID DapuStor 7.68 To x 16 matériels Bande passante RAID DapuStor 7.68 To x 16 matériels Latence RAID matérielle DapuStor 7.68 To x 16
16K aléatoire 70/30 (84T/32Q) 1.938 M IOPS 31.7GB / s 1.386ms
16K aléatoire 80/20 (84T/32Q) 2.484 M IOPS 40.6GB / s 1.082ms
16K aléatoire 90/10 (84T/32Q) 3.630 M IOPS 59.4GB / s 0.740ms

Pour aller plus loin

Les SSD hautes performances comme le DapuStore Haishen5 H5100 sont cruciaux pour les applications avancées. Dans le domaine de l'intelligence artificielle et de l'apprentissage automatique, ces disques SSD accélèrent le traitement des données, permettant une formation plus rapide des modèles et des analyses en temps réel. Pour l’analyse du Big Data, ils garantissent une récupération et une analyse rapides des données, permettant ainsi de prendre des décisions commerciales éclairées. Dans le trading à haute fréquence, ils offrent la faible latence et les transactions à grande vitesse requises. De plus, le Haishen5 H5100 E3.S offre un accès aux données cohérent et rapide pour la virtualisation et le cloud computing, ce qui est essentiel pour maintenir des environnements virtualisés efficaces et fiables. Pratiquement tous les cas d’utilisation peuvent bénéficier des gains significatifs de performances et d’efficacité qu’offrent les SSD Gen5.

DapuStor Haishen5 H5100 E3.S SSD SSD avec Graid

Lors de nos tests, les SSD H5100 ont fourni des performances incroyables sur notre serveur 1U dense. Il s'agit d'une solution polyvalente pour diverses applications hautes performances, aidant les entreprises à répondre à leurs besoins évolutifs en matière de stockage de données. Nous nous sommes concentrés sur les performances HW RAID accélérées par GPU avec une configuration Graid SupremeRAID. Cela nous a permis de maintenir les performances élevées des 16 SSD PCIe Gen5 dans ce serveur sans compromettre l'intégrité du stockage dans une configuration JBOD ou RAID0. Cette configuration a présenté des points forts tels qu'une incroyable bande passante séquentielle en lecture de 205 Go/s et 105 Go/s en écriture avec une taille de transfert de 1 Mo. Les performances d’E/S aléatoires étaient également excellentes, mesurant un impressionnant 18.1 millions d’IOPS en lecture et 1.9 million d’IOPS en écriture lors d’un test de transfert 4K.

Ce qui est aussi excitant que les performances en boîte, c'est la possibilité de partager des données sur le réseau. Même si nous n'en sommes qu'à nos débuts, nous expérimentons cette configuration DapuStor et les cartes réseau OCP Broadcom 400GbE. Avec deux de ces cartes réseau dans le boîtier 1U, nous espérons atteindre environ 80 Go/s de performances de stockage partagé. Pour des tâches telles que la formation à l'IA ou la visualisation de données en temps réel, un réseau et un stockage rapides sont essentiels pour maximiser l'utilisation du GPU. Nous prévoyons d’autres développements avec cette plateforme impressionnante.

Page produit DapuStor

S'engager avec StorageReview

Newsletter |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS