Home Företag Prestanda och motståndskraft: Graid SupremeRAID för AI- och HPC-arbetsbelastningar

Prestanda och motståndskraft: Graid SupremeRAID för AI- och HPC-arbetsbelastningar

by Kevin OBrien

Graid Technology sätter nya dataskydds- och prestandastandarder med SupremeRAID, speciellt för AI- och HPC-arbetsbelastningar.

Graid Technologys SupremeRAID fortsätter att omdefiniera lagringslandskapet genom att sätta nya dataskydds- och prestandastandarder, särskilt för moderna arbetsbelastningar som AI och High-Performance Computing (HPC). Traditionella RAID-konfigurationer kämpar ofta för att möta kraven i dessa dataintensiva miljöer, särskilt när de är beroende av hårdvaru-RAID-kort som begränsas av PCIe-bussens begränsningar. Med GPU-acceleration bryter Graid igenom dessa barriärer och levererar exceptionell prestanda med minimal påverkan på CPU-resurserna samtidigt som det säkerställer robust RAID-skydd.

Graid SupremeRAID för AI och HPC

Gigabyte S183-SH0-AAV1-server

I avancerade arbetsbelastningar som AI och HPC används också ofta alternativa konfigurationer som JBOD (Just a Bunch of Disks) och mjukvaru-RAID (mdadm). Även om det är praktiskt i kombination med checkpointing för att förhindra dataförlust, introducerar JBOD fler felpunkter och belastar IT-administratörer med utmanande återställningsprocesser. Programvara RAID erbjuder datahållfasthet men dränerar värdefulla CPU-resurser för att hantera RAID-paritetsdata och underpresterar på många områden. Däremot tillhandahåller Graids SupremeRAID en strömlinjeformad, högpresterande lösning som förenklar datahantering utan att kompromissa med hastighet eller tillförlitlighet.

Graid SupremeRAID-kort

Detta dokument kommer att utforska en prestandajämförelse mellan Graids SupremeRAID, JBOD och mjukvaru-RAID, och illustrerar varför Graid framstår som det överlägsna valet för IT-miljöer där prestanda och dataskydd är av största vikt.

Prestanda Testbädd

Vi använde Gigabyte S183-SH0-AAV1 dubbla Intel 5:e generationens skalbar 1U-server för denna testbädd. Vi ville hitta en kompakt server med mycket datorkraft, och det råkade bara vara så att servern stöder 32 E1.S SSD:er, det maximala av vad som stöds med en enda Graid SupremeRAID SR-1010. Gigabyte-servern har 32 DIMM-platser, med stöd för 96 GB RDIMM och 256 GB 3DS RDIMM. Den här plattformen har tre FHHL PCIe Gen5-platser på baksidan, vilket ger många alternativ för höghastighetsanslutning till nätverk. Dessutom har moderkortet dubbla 1GbE inbyggda nätverk och en 1GbE hanteringsport.

Grid HPC DRAM

Kingston 96GB DDR5-5600 ECC RDIMM

Servern stöder 32 DIMM-platser, men i det här fallet fyllde vi med 16 Kingston DIMM, 1 DIMM per kanal (1DPC) för maximal DRAM-hastighet. Om arbetsbelastningen kräver ett större fotavtryck är det möjligt att flytta till DIMM med högre densitet eller en 2DPC-konfiguration, men den senare sänker DRAM-hastigheten till 4400MT/s. Smakämnen Kingston 96GB DDR5-5600 ECC RDIMM i denna server ger en utmärkt blandning av prestanda per dollar, vilket gör dem till ett attraktivt alternativ för arbetsbelastningar som kräver höghastighets-DRAM och ett rimligt DRAM-fotavtryck utan kostnadspremien på 128 GB DIMM. Dessa moduler erbjuder det bästa av två världar för intensiva HPC- och AI-arbetsbelastningar. 

KIOXIA 7.68TB XD7P SSD-enheter

De 32 E1.S SSD-facken är befolkade av KIOXIA 7.68TB XD7P SSD:er. Enheterna använder ett PCIe Gen4 x2-gränssnitt och levererar en maximal bandbredd på 7.2 GB/s läsning och 4.8 GB/s skriv. KIOXIA har designat dessa enheter specifikt för intensiva hyperskala- och HPC-arbetsbelastningar, där densitetsfördelarna med E1.S SSD:er är fördelaktiga. Viktigt är att KIOXIA har säkerställt att den termiska designen av XD7P är redo att hålla jämna steg med denna täta serverdesign, även under tung belastning.

Gigabyte S183-SH0-AAV1 Server Bakre I/O

Testsystemspecifikationer

  • Gigabyte S183-SH0-AAV1-server
  • 2 x Intel Xeon Platinum 8592+ processorer (64 kärnor, 1.9 GHz)
  • 16 x 96 GB Kingston DDR5-5600
  • 32 x KIOXIA XD7P 7.68TB E1.S SSD:er
  • Grid SupremeRAID SR-1010
  • Ubuntu 22.04.4 Server

Prestandatestresultat

HPC-arbetsbelastningar kan fungera i dagar, veckor eller månader åt gången, och utan elastisk backend-lagring kan ett enda enhetsfel tvinga dessa jobb tillbaka till ruta ett. För att utvärdera Graids inverkan på både motståndskraft och prestanda för HPC- och Ai-arbetsbelastningar tittar vi på prestandan för y-crunchers interna lagringsbenchmark. Målet är att jämföra en mängd olika lagringskonfigurationer, JBOD, mjukvaru-RAID och Graid SupremeRAID, för att förstå deras inverkan på CPU-intensiva arbetsbelastningar.

RAID-konfiguration

Vi vet att mdadm-programvaran RAID ser en betydande skrivträff för paritetsdata. Även om RAID10 skulle uppnå högre prestanda, skulle det också minska den användbara kapaciteten avsevärt. För att på bästa sätt optimera programvarans RAID5-prestanda konfigurerade vi två RAID5-pooler, uppdelade på SSD:erna 0-15 och 16-31. Detta balanserade dem över båda processorerna.

Graid-jämförelsen var också inställd för att använda två RAID5-pooler, med en jämn uppdelning av hälften av SSD:erna på CPU0 och den andra hälften på CPU1 för NUMA-balansering. Vi testade med en enda volym på varje RAID5-pool samt två volymer per RAID5-pool.

Varje enhet mappas individuellt i JBOD-konfigurationen, vilket säkerställer jämn NUMA-balansering.

Vi kunde inte inkludera hårdvaru-RAID i den här rapporten eftersom hur enheterna är kablade i den här servern gör att traditionella hårdvaru-RIAD-kort inte stöds. Det är dock värt att notera att även om vi kunde, skulle det bästa scenariot vara att nå bandbreddsgränsen för en PCIe Gen4 x16-plats för ett enda kort, runt 28 GB/s.

Programvarukonfiguration

För dessa olika lagringsscenarier använde vi y-crunchers interna prestandatestverktyg. Testresultaten är uppdelade i sekventiell läs- och skrivprestanda, beräknings-I/O-hastighet, disk I/O-hastighet och förhållandet mellan disk I/O-hastighet och beräkningshastighet. Vi valde det här verktyget eftersom det samtidigt stressar CPU, minne och enhets I/O. Även om det inte representerar någon enskild specifik arbetsbelastning, har vi funnit att den data den genererar nära korrelerar med systemets övergripande prestanda under I/O-tunga applikationer. Noterbart inkluderar I/O-testet faktisk databehandling snarare än att bara skjuta bitar genom ett gränssnitt så snabbt som möjligt, vilket gör det till en mer exakt återspegling av systemets prestanda under verklig belastning.

Sekventiell läs- och skrivprestanda indikerar diskarrayens råhastighet. Beräkningshastighet är den hastighet med vilken CPU:n arbetar genom data, medan disk I/O-hastighet är hur snabbt data kan strömma till CPU:n när beräkningsarbete sker. Arbetsbelastningar som går till disk kräver att diskens I/O-hastighet är högre än beräkningshastigheten för att inte sakta ner. Om detta förhållande är mindre än 1.0 är disken en flaskhals, medan över 1.0 är CPU:n en flaskhals. y-cruncher för stora arbetsbelastningar presterar bäst när förhållandet är 2.0 eller högre.

Lagringskonfiguration Sekventiell läs GB/s Sekventiell skriv GB/s Beräkning GB/s Disk I/O GB/s Ratio
Direkt JBOD 102 102 18.4 81.5 4.42
Graid RAID5 x 2 2VD 64.3 43.8 23.1 70.4 3.05
Graid RAID5 x 2 4VD 85.2 73.7 22.1 69.4 3.14
SW RAID5 x 2 122 3.6 25.7 10.9 0.42

Med direkt JBOD till 32 individuella E1.S SSD-enheter såg y-cruncher en prestanda på 102 GB/s läsning och 102 GB/s skriv med sin interna striping-process. Detta är i allmänhet den högsta prestanda som y-cruncher kommer att se för den här plattformen, även om avvägningen inte är någon dataparitet. När konfigurationen byttes till mjukvaru-RAID5-volymer (spridda över båda processorerna) med mdadm, sjönk sekventiell prestanda till bara 3.6 GB/s skrivning och 122 GB/s läsning. Graid med två RAID5-pooler och två volymer mätte 64.3 Gb/s läs med skrivprestanda på 43.8 GB/s. Att dela upp det i två RAID5-pooler men med fyra volymer såg Graid en ökning av bandbredden till 85.2 GB/s läsning och 73.7 GB/s skrivning.

Med bandbreddssiffrorna adresserade och spektrumet av lagringskonfigurationsalternativ förstått, går vi in ​​på effekten av detta beslut på applikationen. Förhållandet mellan beräkning och disk I/O-bandbredd såg det högsta förhållandet på 4.43 från JBOD-konfigurationen. Programvaran RAID5 var ynka 0.42, medan Graid RAID5 3.05 med 2VDs och 3.14 med 4VDs.

I detta y-cruncher-exempel, som inkluderar serverns alla prestandamöjligheter, krävs ett förhållande på 2.0 eller högre för optimal prestanda. Medan JBOD-konfigurationen ger de bästa övergripande resultaten, gör den det till bekostnad av paritetsdata, vilket innebär att ett fel på vilken enhet som helst, även för ett ögonblick, innebär dataförlust. Å andra sidan kan mjukvaru-RAID erbjuda datatillgänglighet och högre läshastighet än JBOD, men skrivningarna lider så allvarligt att diskens I/O inte kan hålla jämna steg med CPU:n, vilket leder till det fruktansvärda .42-resultatet.

Dessa två datapunkter är avgörande för att förstå fördelen med Graid SupremeRAID med dessa arbetsbelastningar. För detta användningsfall ligger de sammanlagda prestandatalen mellan JBOD och mjukvaru-RAID, men rå I/O är inte hela historien. Det här exemplet visar att Graid kan leverera mer än den applikationsprestanda som krävs och samtidigt tillhandahålla datatillgänglighet. Denna kombination innebär att organisationer som använder Graid kan förvänta sig RAID-skydd, lagring och applikationsprestanda med en icke-blockerande arkitektur som vida överstiger vad ett traditionellt RAID-kort kan ge.

Slutsats

Graid Technologys SupremeRAID tänjer konsekvent på gränserna för dataskydd och prestanda och sätter en ny standard i branschen. Genom att utnyttja kraften i GPU-accelerationen levererar Graid oöverträffad hastighet och effektivitet i RAID-konfigurationer, vilket avsevärt minskar CPU-belastningen samtidigt som genomströmningen maximeras.

Datan vi samlade in för den här rapporten visar Graids förmåga att säkerställa robust dataskydd samtidigt som de möter de krävande kraven för moderna AI- och HPC-arbetsbelastningar – områden där traditionella RAID- och mjukvaru-RAID-lösningar ofta misslyckas. Denna effektivitet gör att kritiska systemresurser som CPU, DRAM och lagring kan bidra fullt ut till prestandan för de applikationer de är designade för att stödja, vilket förbättrar det övergripande systemets värde och effektivitet.

Graid-teknik

Denna rapport är sponsrad av Graid Technology. Alla åsikter och åsikter som uttrycks i denna rapport är baserade på vår opartiska syn på produkten/de produkter som övervägs.

Engagera dig med StorageReview

Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Rssflöde