Accueil Entreprise Performances et résilience : Graid SupremeRAID pour les charges de travail IA et HPC

Performances et résilience : Graid SupremeRAID pour les charges de travail IA et HPC

by Kevin O'Brien

Graid Technology établit de nouvelles normes de protection des données et de performances avec SupremeRAID, en particulier pour les charges de travail d'IA et de HPC.

La technologie SupremeRAID de Graid Technology continue de redéfinir le paysage du stockage en établissant de nouvelles normes de protection des données et de performances, en particulier pour les charges de travail modernes telles que l'IA et le calcul haute performance (HPC). Les configurations RAID traditionnelles ont souvent du mal à répondre aux exigences de ces environnements gourmands en données, en particulier lorsqu'elles dépendent de cartes RAID matérielles limitées par les limitations du bus PCIe. En tirant parti de l'accélération GPU, Graid franchit ces barrières, offrant des performances exceptionnelles avec un impact minimal sur les ressources du processeur tout en garantissant une protection RAID robuste.

Graid SupremeRAID pour l'IA et le HPC

Serveur Gigabyte S183-SH0-AAV1

Dans les charges de travail avancées comme l'IA et le HPC, des configurations alternatives telles que JBOD (Just a Bunch of Disks) et RAID logiciel (mdadm) sont également couramment utilisées. Bien que pratique lorsqu'il est associé à des points de contrôle pour éviter la perte de données, JBOD introduit davantage de points de défaillance et impose aux administrateurs informatiques des processus de récupération complexes. Le RAID logiciel offre une résilience des données, mais épuise les précieuses ressources du processeur pour gérer les données de parité RAID et est sous-performant dans de nombreux domaines. En revanche, SupremeRAID de Graid fournit une solution rationalisée et hautes performances qui simplifie la gestion des données sans compromettre la vitesse ou la fiabilité.

Carte Graid SupremeRAID

Cet article explorera une comparaison des performances entre SupremeRAID, JBOD et RAID logiciel de Graid, illustrant pourquoi Graid apparaît comme le choix supérieur pour les environnements informatiques où les performances et la protection des données sont primordiales.

Banc d'essai de performance

Nous avons utilisé le Carte graphique Gigabyte S183-SH0-AAV1 Pour ce banc d'essai, nous avons choisi un serveur 5U Intel 1e génération Scalable. Nous voulions trouver un serveur compact avec une grande puissance de calcul, et il se trouve que le serveur prend en charge 32 SSD E1.S, le maximum de ce qui est pris en charge par un seul Graid SupremeRAID SR-1010. Le serveur Gigabyte dispose de 32 emplacements DIMM, avec prise en charge de 96 Go de RDIMM et de 256 Go de RDIMM 3DS. Cette plate-forme offre trois emplacements FHHL PCIe Gen5 à l'arrière, offrant de nombreuses options de connectivité réseau à haut débit. De plus, la carte mère offre un double réseau embarqué 1 GbE et un port de gestion 1 GbE.

Mémoire DRAM HPC à grille

Kingston 96 Go DDR5-5600 ECC RDIMM

Le serveur prend en charge 32 emplacements DIMM, mais dans ce cas, nous avons installé 16 DIMM Kingston, 1 DIMM par canal (1DPC) pour une vitesse DRAM maximale. Si la charge de travail nécessite une empreinte plus importante, il est possible de passer à des DIMM à densité plus élevée ou à une configuration 2DPC, mais cette dernière réduit la vitesse DRAM à 4400 XNUMX MT/s. La Mémoires RDIMM Kingston DDR96-5 ECC 5600 Go Ces serveurs offrent un excellent rapport performances/prix, ce qui en fait une option intéressante pour les charges de travail nécessitant une DRAM à haut débit et une empreinte DRAM raisonnable sans le surcoût des DIMM de 128 Go. Ces modules offrent le meilleur des deux mondes pour les charges de travail intensives HPC et IA. 

Disques SSD KIOXIA XD7.68P de 7 To

Les 32 baies SSD E1.S sont équipées de SSD KIOXIA XD7.68P de 7 To. Les disques utilisent une interface PCIe Gen4 x2 et offrent une bande passante maximale de 7.2 Go/s en lecture et de 4.8 Go/s en écriture. KIOXIA a conçu ces disques spécifiquement pour les charges de travail hyperscale et HPC intensives, où les avantages de densité des SSD E1.S sont bénéfiques. Plus important encore, KIOXIA a veillé à ce que la conception thermique du XD7P soit prête à suivre cette conception de serveur dense, même sous une charge importante.

E/S arrière du serveur Gigabyte S183-SH0-AAV1

Spécifications du système de test

  • Serveur Gigabyte S183-SH0-AAV1
  • 2 x processeurs Intel Xeon Platinum 8592+ (64 cœurs, 1.9 GHz)
  • 16 x 96 Go Kingston DDR5-5600
  • 32 disques SSD KIOXIA XD7P 7.68 To E1.S
  • Carte RAID suprême Graid SR-1010
  • Serveur Ubuntu 22.04.4

Résultats des tests de performance

Les charges de travail HPC peuvent fonctionner pendant des jours, des semaines ou des mois, et sans stockage back-end résilient, une seule panne de disque peut forcer ces tâches à revenir à la case départ. Pour évaluer l'impact de Graid sur la résilience et les performances des charges de travail HPC et IA, nous examinons les performances du test de stockage interne de y-cruncher. L'objectif est de comparer une variété de configurations de stockage, JBOD, RAID logiciel et Graid SupremeRAID, pour comprendre leur impact sur les charges de travail gourmandes en CPU.

Configuration RAID

Nous savons que le RAID logiciel mdadm subit une perte d'écriture substantielle pour les données de parité. Bien que RAID10 permette d'obtenir des performances supérieures, il réduirait également considérablement la capacité utilisable. Pour optimiser au mieux les performances du RAID logiciel 5, nous avons configuré deux pools RAID5, répartis sur les SSD 0-15 et 16-31. Cela les a équilibrés sur les deux processeurs.

La comparaison Graid a également été réglée pour utiliser deux pools RAID5, avec une répartition égale de la moitié des SSD sur CPU0 et l'autre moitié sur CPU1 pour l'équilibrage NUMA. Nous avons testé avec un seul volume sur chaque pool RAID5 ainsi que deux volumes par pool RAID5.

Chaque lecteur est mappé individuellement dans la configuration JBOD, garantissant un équilibrage NUMA uniforme.

Nous n'avons pas pu inclure le RAID matériel dans ce rapport car la manière dont les disques sont câblés dans ce serveur rend les cartes RIAD matérielles traditionnelles non prises en charge. Il convient toutefois de noter que même si nous le pouvions, le meilleur scénario serait d'atteindre la limite de bande passante d'un emplacement PCIe Gen4 x16 pour une seule carte, soit environ 28 Go/s.

Configuration logicielle

Pour ces différents scénarios de stockage, nous avons utilisé croque-yOutil de test de performances interne de . Les résultats du test sont divisés en performances de lecture et d'écriture séquentielles, vitesse d'E/S de calcul, vitesse d'E/S de disque et rapport entre la vitesse d'E/S de disque et la vitesse de calcul. Nous avons sélectionné cet outil car il met à rude épreuve simultanément le processeur, la mémoire et les E/S du lecteur. Bien qu'il ne représente aucune charge de travail spécifique, nous avons constaté que les données qu'il génère sont étroitement liées aux performances globales du système dans le cadre d'applications gourmandes en E/S. Notamment, le test d'E/S inclut le traitement réel des données plutôt que de simplement pousser des bits via une interface aussi rapidement que possible, ce qui en fait un reflet plus précis des performances du système sous une charge réelle.

Les performances de lecture et d'écriture séquentielles indiquent la vitesse brute de la matrice de disques. La vitesse de calcul est la vitesse à laquelle le processeur traite les données, tandis que la vitesse d'E/S du disque correspond à la vitesse à laquelle les données peuvent être transmises au processeur pendant le travail de calcul. Les charges de travail allant sur le disque nécessitent une vitesse d'E/S du disque supérieure à la vitesse de calcul pour ne pas être ralenties. Si ce rapport est inférieur à 1.0, le disque est un goulot d'étranglement, tandis qu'au-dessus de 1.0, le processeur est un goulot d'étranglement. Y-Cruncher pour les charges de travail volumineuses fonctionne mieux lorsque le rapport est de 2.0 ou plus.

Configuration du stockage Lecture séquentielle Go/s Écriture séquentielle Go/s Calcul Go/s E/S de disque Go/s Ratio
JBOD direct 102 102 18.4 81.5 4.42
RAID5 x 2 2VD 64.3 43.8 23.1 70.4 3.05
RAID5 x 2 4VD 85.2 73.7 22.1 69.4 3.14
RAID 5 x 2 SW 122 3.6 25.7 10.9 0.42

Avec un JBOD direct sur 32 SSD E1.S individuels, y-cruncher a enregistré des performances de 102 Go/s en lecture et de 102 Go/s en écriture avec son processus de striping interne. Il s'agit généralement des performances les plus élevées que y-cruncher verra pour cette plate-forme, bien que le compromis soit l'absence de parité des données. Lorsque la configuration a été basculée vers des volumes RAID5 logiciels (répartis sur les deux processeurs) avec mdadm, les performances séquentielles ont chuté à seulement 3.6 Go/s en écriture et 122 Go/s en lecture. Graid avec deux pools RAID5 et deux volumes a mesuré 64.3 Go/s en lecture avec des performances en écriture de 43.8 Go/s. En divisant cela en deux pools RAID5 mais avec quatre volumes, Graid a constaté une augmentation de la bande passante à 85.2 Go/s en lecture et 73.7 Go/s en écriture.

Une fois les chiffres de bande passante pris en compte et le spectre des options de configuration de stockage compris, nous examinons l'impact de cette décision sur l'application. Le rapport entre la bande passante de calcul et la bande passante d'E/S du disque a enregistré le rapport le plus élevé de 4.43 pour la configuration JBOD. Le RAID5 logiciel n'a atteint qu'un maigre 0.42, tandis que le RAID5 Graid a atteint 3.05 avec 2 VD et 3.14 avec 4 VD.

Dans cet exemple de Y-Cruncher, qui inclut toutes les capacités de performance du serveur, un ratio de 2.0 ou plus est requis pour des performances optimales. Bien que la configuration JBOD génère les meilleurs résultats globaux, elle le fait au détriment des données de parité, ce qui signifie qu'une panne d'un disque, même momentanée, entraîne une perte de données. D'un autre côté, le RAID logiciel peut offrir une disponibilité des données et une vitesse de lecture plus élevée que le JBOD, mais les écritures souffrent tellement que les E/S du disque ne peuvent pas suivre le rythme du processeur, ce qui donne le résultat épouvantable de 42.

Ces deux points de données sont essentiels pour comprendre les avantages que Graid SupremeRAID offre à ces charges de travail. Pour ce cas d’utilisation, les chiffres de performances agrégés se situent entre JBOD et RAID logiciel, mais les E/S brutes ne sont pas tout. Cet exemple montre que Graid peut offrir plus que les performances applicatives requises tout en garantissant la disponibilité des données. Cette combinaison signifie que les organisations qui utilisent Graid peuvent s’attendre à une protection RAID, à un stockage et à des performances applicatives avec une architecture non bloquante dépassant de loin ce qu’une carte RAID traditionnelle pourrait offrir.

Pour aller plus loin

La technologie SupremeRAID de Graid repousse constamment les limites de la protection des données et des performances, établissant ainsi une nouvelle norme dans le secteur. En exploitant la puissance de l'accélération GPU, Graid offre une vitesse et une efficacité inégalées dans les configurations RAID, réduisant considérablement la charge du processeur tout en maximisant le débit.

Les données que nous avons collectées pour ce rapport démontrent la capacité de Graid à assurer une protection robuste des données tout en répondant aux exigences élevées des charges de travail modernes d'IA et de HPC, domaines dans lesquels les solutions RAID traditionnelles et RAID logicielles sont souvent insuffisantes. Cette efficacité permet aux ressources système critiques telles que le processeur, la mémoire DRAM et le stockage de contribuer pleinement aux performances des applications qu'elles sont censées prendre en charge, améliorant ainsi la valeur et l'efficacité globales du système.

Technologie de Grad

Ce rapport est sponsorisé par Graid Technology. Tous les points de vue et opinions exprimés dans ce rapport sont basés sur notre vision impartiale du ou des produits considérés.

S'engager avec StorageReview

Newsletter |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS