Tidigare i år lanserade QSAN sitt första All-Flash SAN med QSAN XCubeFAS XF2026D. I motsats till att vara en uppdatering av QSAN:s XCubeSAN-linje, är XCubeFAS XF2026D en helt ny SAN-produkt. Produkten bygger på grunden för att vara användarvänlig, kan distribueras och integreras i vilken miljö som helst och är prisvärd oavsett företagets storlek.
Tidigare i år lanserade QSAN sitt första All-Flash SAN med QSAN XCubeFAS XF2026D. I motsats till att vara en uppdatering av QSAN:s XCubeSAN-linje, är XCubeFAS XF2026D en helt ny SAN-produkt. Produkten bygger på grunden för att vara användarvänlig, kan distribueras och integreras i vilken miljö som helst och är prisvärd oavsett företagets storlek.
Grunderna som lagts upp ovan är huvuddragen i QSAN XCubeFAS XF2026D. Företaget uppger att det nya SAN kan drivas av alla och hanteras med bara några klick. QSAN säger att funktioner som att skapa flera volymer, automatisk fjärrreplikering, SSD-övervakning och prestandaanalys är lätta att använda. QSAN anger också att XF2026D kan distribueras och integreras i vilken datamiljö som helst oavsett om de behöver hög prestanda eller vissa funktioner som är idealiska för användningsfall som virtualiseringsmiljöer, big data-analys och hantering av krävande applikationer. Allt ovanstående kommer med påståenden om överkomliga priser.
QSAN XCubeFAS XF2026D är ett 2U SAN som har en dubbelaktiv styrenhetsarkitektur. SAN ger hög tillgänglighet genom att designa allt med full redundans. Den har också automatisk failover/failback-mekanism och cache-spegling genom NTB-buss (Non-Transparent Bridge) för att uppnå Active-Active-funktionalitet. Med dessa funktioner hävdar XF2026D 99.9999 % tillgänglighet.
En annan ny funktion som också förbättrar datatillförlitligheten är Cache-to-Flash-minnesskyddet. Denna teknik bevarar cachedata i händelse av strömavbrott. XF2026D använder en batteribackupmodul för att överföra data från cachen till en M.2-flashmodul, vilket säkerställer att ingen data går förlorad och inga inkonsekvenser uppstår.
Specifikationer för QSAN XCubeFAS XF2026D
Formfaktor | 2U |
CPU | Intel Xeon 4-kärnig processor (8-kärnig processormodell finns också) |
Minne (per kontroller) | Upp till 128 GB DDR4 ECC |
RAID-regulator | Aktiv-aktiv dubbelkontroll |
Minnesskydd | Cache-till-Flash-modul Batteribackupmodul + Flashmodul |
Värd anslutning | |
Värdkortplats 1 | (frivillig): 4 x 16 Gb FC (SFP+)-portar 2 x 16 Gb FC (SFP+)-portar 4 x 10GbE iSCSI (SFP+)-portar 2 x 10GbE iSCSI (RJ45)-portar |
Värdkortplats 2 | (frivillig): 4 x 16 Gb FC (SFP+)-portar 2 x 16 Gb FC (SFP+)-portar 4 x 10GbE iSCSI (SFP+)-portar 2 x 10GbE iSCSI (RJ45)-portar |
Inbyggda 2 x 10GBASE-T iSCSI (RJ45)-portar Inbyggd 1 x 1 GbE hanteringsport |
|
lagring | |
Vikar | 26 |
Växeltyp | 2.5” SAS, SED SSD |
Max enheter stöds | 130 |
Expansion | |
Anslutningar | Inbyggda 2 x 12 Gb/s SAS breda portar (SFF-8644) |
Capabilities | Upp till 4 expansionsenheter med XD5326 (SFF 26-fack) 12 Gb SAS-expansionshölje |
Effekt | |
Utrustning | 80 PLUS Platinum, två redundanta 770W (1+1) |
AC Input | 100 – 127V 10A, 50-60Hz 200 – 240V 5A, 50-60Hz |
DC-utgång | +12V 63.4A +5 VSB 2.0A |
Fläktmodul | 2 x hotpluggbara/redundanta fläktmoduler |
Temperatur | |
Rörelsens | 0 till 40 ° C |
Frakt & Leverans | -10 ° C till 50 ° C |
Relativ fuktighet | 20%-80% |
Garanti | 3-års system, 1-års batteribackup |
Design och bygga
Som sagt är QSAN XCubeFAS XF2026D ett 2U SAN och designen håller sig i linje med resten av QSAN-produkter. Tvärs över fronten finns de 26 2.5-tumsfack med den gröna frigöringsknappen. På den högra sidan av frontpanelen finns systemströmknappen, UID-knappen (Unique Identifier), lysdioder för systemåtkomst och systemstatus samt en USB-port för USB LCM-modulen.
På baksidan av enheten finns de dubbla redundanta strömförsörjningsenheterna, såväl som de dubbla kontrollerna. Varje styrenhet har inbyggd dubbla 10Gbase-T-nätverksanslutning, förutom ett gränssnitt för hantering utanför bandet. För ytterligare anslutningsmöjligheter har varje styrenhet två värdkortplatser, som kan laddas med dubbla eller quad port 8/16Gb kort, eller dubbla eller quad portar 10Gb Ethernet-kort. Detta ger användarna ett brett utbud av alternativ för att koppla lagring till en varierad datacentermiljö. Expansionsmöjligheter stöds också genom två 12Gb/s SAS-portar per kontroller, vilket möjliggör SAS 3.0-expansionshyllor. I det övre vänstra hörnet ligger Flash-to-Cache-minnet och batterimodulen.
Verksamhetsledningen
Med detta SAN kommer ett nytt hanteringsoperativsystem från QSAN, XEVO. Detta HTML5-gränssnitt följer liknande principer som tidigare QSAN-modeller, särskilt användarvänlighet. Huvudsidan eller instrumentpanelen har en snabb översikt över allt en administratör kan behöva veta om direkt. Detta inkluderar hårdvaruvarningar, använd kapacitet, systemvarningar, lagringsöversikt och realtidsprestanda. Det finns flera flikar längst upp som inkluderar: Dashboard, Lagring, Värdar, Skydd, Analys, System och Meddelanden.
Under fliken Lagring kan användare se lagringspoolerna eller skapa nya. Inom poolen kan de se hur mycket lagring som används, lagringens tillstånd och status, samt diskgrupper och volymer.
På fliken Analys kan användare se viktig information som prestanda för en volym (uppdelad i latens, IOPS och genomströmning) samt kapacitetsanvändning för en volym.
Fliken System visar hårdvaran och vad den gör för närvarande. Användare kan välja mellan underflikarna Arrays, Settings, Data Ports och Maintenance. Under underfliken Arrays kan användare hålla muspekaren över saker som temperaturikonen för att se temperaturen för den valda värden.
Användare kan också hålla muspekaren över en specifik disk för att se typ, temperatur, status och beräknad återstående livslängd.
Sammantaget är gränssnittet och ledningen ett stort steg framåt för QSAN. Tidigare system var inte svåra att hantera men det här utseendet och känslan är mycket bättre. I en tid då ett användbart HTML5-gränssnitt är bordsinsatser, bockar QSAN av den rutan.
Prestation
Analys av applikationens arbetsbelastning
Benchmarks för applikationens arbetsbelastning för QSAN XCubeSAN XF2026D består av MySQL OLTP-prestanda via SysBench och Microsoft SQL Server OLTP-prestanda med en simulerad TPC-C-arbetsbelastning. I varje scenario hade vi arrayen konfigurerad med 26 Toshiba PX04SV SAS 3.0 SSD:er, konfigurerade i två 12-enheters RAID10-diskgrupper, en fäst vid varje styrenhet. Detta lämnade 2 SSD:er som reservdelar. Två 5TB-volymer skapades sedan, en per diskgrupp. I vår testmiljö skapade detta en balanserad belastning för våra SQL- och Sysbench-arbetsbelastningar.
SQL Server prestanda
Varje SQL Server VM är konfigurerad med två vDisks: 100 GB volym för uppstart och en 500 GB volym för databasen och loggfiler. Ur ett systemresursperspektiv konfigurerade vi varje virtuell dator med 16 vCPU:er, 64 GB DRAM och utnyttjade LSI Logic SAS SCSI-kontrollern. Medan våra Sysbench-arbetsbelastningar som tidigare testats mättade plattformen i både lagrings-I/O och kapacitet, letar SQL-testet efter latensprestanda.
Det här testet använder SQL Server 2014 som körs på Windows Server 2012 R2 gäst-VM, och betonas av Quests Benchmark Factory for Databases. Medan vår traditionella användning av detta riktmärke har varit att testa stora 3,000 1,500-skaliga databaser på lokal eller delad lagring, fokuserar vi i denna iteration på att sprida fyra 2026 XNUMX-skaliga databaser jämnt över QSAN XFXNUMXD (två virtuella datorer per kontroller).
SQL Server-testkonfiguration (per virtuell dator)
- Windows Server 2012 R2
- Lagringsutrymme: 600 GB tilldelat, 500 GB använt
- SQL Server 2014
- Databasstorlek: 1,500 XNUMX skala
- Virtuell klientbelastning: 15,000 XNUMX
- RAM-buffert: 48GB
- Testlängd: 3 timmar
- 2.5 timmars förkonditionering
- 30 minuters provperiod
SQL Server OLTP Benchmark Factory LoadGen Utrustning
- Dell EMC PowerEdge R740xd Virtualiserat SQL 4-nodskluster
- 8 Intel Xeon Gold 6130 CPU för 269GHz i kluster (två per nod, 2.1GHz, 16-kärnor, 22MB cache)
- 1 TB RAM (256 GB per nod, 16 GB x 16 DDR4, 128 GB per CPU)
- 4 x Emulex 16GB dual-port FC HBA
- 4 x Mellanox ConnectX-4 rNDC 25GbE NIC med dubbla portar
- VMware ESXi vSphere 6.5 / Enterprise Plus 8-CPU
Med SQL Server transaktionspoäng hade XF2026D en sammanlagd poäng på 12,635.5 3,158.7 TPS med individuella virtuella datorer som kördes från 3,159 XNUMX till XNUMX XNUMX TPS.
För SQL Servers genomsnittliga latens hade XF2026D en sammanlagd poäng på 5.0 ms.
Sysbench Performance
Varje sysbench VM är konfigurerad med tre vDisks, en för start (~92GB), en med den förbyggda databasen (~447GB), och den tredje för databasen som testas (270GB). Ur ett systemresursperspektiv konfigurerade vi varje virtuell dator med 16 vCPU:er, 60 GB DRAM och utnyttjade LSI Logic SAS SCSI-kontrollern. Lastgenerationssystem är Dell R740xd-servrar.
Dell PowerEdge R740xd Virtualiserat MySQL 4-nodkluster
- 8 Intel Xeon Gold 6130 CPU för 269GHz i kluster (två per nod, 2.1GHz, 16-kärnor, 22MB cache)
- 1 TB RAM (256 GB per nod, 16 GB x 16 DDR4, 128 GB per CPU)
- 4 x Emulex 16GB dual-port FC HBA
- 4 x Mellanox ConnectX-4 rNDC 25GbE NIC med dubbla portar
- VMware ESXi vSphere 6.5 / Enterprise Plus 8-CPU
Sysbench-testkonfiguration (per virtuell dator)
- CentOS 6.3 64-bitars
- Lagringsutrymme: 1 TB, 800 GB använt
- Percona XtraDB 5.5.30-rel30.1
- Databastabeller: 100
- Databasstorlek: 10,000,000 XNUMX XNUMX
- Databastrådar: 32
- RAM-buffert: 24GB
- Testlängd: 3 timmar
- 2 timmar förkonditionering 32 trådar
- 1 timme 32 trådar
I vårt Sysbench-riktmärke testade vi flera uppsättningar av 8VM, 16VM och 32VM. I transaktionsprestanda träffade XF2026D siffror på 12,983.8 8 TPS för 22,484.4VM, 16 29,893.9 TPS för 32VM och XNUMX XNUMX TPS för XNUMXVM.
Med genomsnittlig latens hade XF2026D 19.7 ms för 8 VM, 23 ms för 16 VM och 36 ms för 32 VM.
I vårt värsta tänkbara fördröjningsscenario nådde XF2026D 34.8 ms för 8VM, 41.7 ms för 16VM och 65.6 ms för 32VM.
VDBench arbetsbelastningsanalys
När det gäller benchmarking av lagringsmatriser är applikationstestning bäst, och syntetiska tester kommer på andra plats. Även om det inte är en perfekt representation av faktiska arbetsbelastningar, hjälper syntetiska tester till baslagringsenheter med en repeterbarhetsfaktor som gör det enkelt att göra jämförelser mellan äpplen och äpplen mellan konkurrerande lösningar. Dessa arbetsbelastningar erbjuder en rad olika testprofiler som sträcker sig från "fyra hörn"-tester, vanliga tester av databasöverföringsstorlek, såväl som spårfångst från olika VDI-miljöer. Alla dessa tester utnyttjar den vanliga vdBench-arbetsbelastningsgeneratorn, med en skriptmotor för att automatisera och fånga resultat över ett stort beräkningstestkluster. Detta gör att vi kan upprepa samma arbetsbelastningar över ett brett utbud av lagringsenheter, inklusive flash-arrayer och individuella lagringsenheter. På arraysidan använder vi vårt kluster av Dell PowerEdge R740xd-servrar:
profiler:
- 4K slumpmässig läsning: 100 % läsning, 128 trådar, 0-120 % iorat
- 4K Random Write: 100% Write, 64 trådar, 0-120% iorate
- 64K sekventiell läsning: 100 % läsning, 16 trådar, 0-120 % iorat
- 64K sekventiell skrivning: 100 % skrivning, 8 trådar, 0-120 % iorate
- Syntetisk databas: SQL och Oracle
- VDI Full Clone och Linked Clone Traces
I 4K topp läsprestanda började XF2026D med sub-millisekunders latens, körde 1ms-linjen en stund och gick över 1ms runt 15K IOPS. SAN fortsatte att nå sin topp på 403,790 6.03 IOPS med en latens på XNUMX ms.
Med 4K slumpmässiga skrivningar ser vi en förbättring av latens med XF2026D som bibehåller submillisekunders latens till cirka 250K IOPS och fortsätter att nå en topp på cirka 270K IOPS med 4.4ms latens innan den faller av några.
Genom att byta till 64K sekventiell, började XF2026D bara ett hårstrån under 1 ms i läsning innan den gick över och fortsatte sedan med en topp på drygt 125K IOPS eller 7.8 GB/s med en latens på ungefär 4.1 ms innan den föll något.
Med 64K skrivning ser vi återigen en bättre latens med XF2026D som bibehåller submillisekunders latens till cirka 64K IOPS eller 4GB/s och fortsätter att nå en topp på 70,731 4.4 IOPS eller 3.6GB/s med XNUMXms latens.
Nästa upp är vår SQL-arbetsbelastning som såg till att XF2026D stannade under 1 ms till ungefär 210 362,807 IOPS och fortsatte att nå en topp på 2.62 XNUMX IOPS med en latens på XNUMX ms.
I SQL 90-10 hade XF2026D sub-millisekunders latens till cirka 200K IOPS och toppade på 328,209 2.82 IOPS med en latens på XNUMXms.
För SQL 80-20 stannade XF2026D under 1 ms till cirka 120 296,772 IOPS och nådde en topp på 3.1 XNUMX IOPS med en latens på XNUMX ms.
Nästa batch av riktmärken är Oracle-arbetsbelastningar med XF2026D som håller sig under 1 ms till cirka 125 293,975 IOPS och har en topp på 3.91 XNUMX IOPS och en latens på XNUMX ms.
För Oracle 90-10 kom XF2026D till 230K IOPS med sub-millisekunders latens och hade en topp på 327,269 1.91 IOPS vid en latens på XNUMXms.
I Oracle 80-20 benchmark hade XF2026D submillisekunders latensprestanda fram till cirka 130 296,549 IOPS och nådde en topp på 2.1 XNUMX IOPS med XNUMX ms för latens.
Därefter bytte vi till våra VDI-klontest, Full Clone (FC) och Linked Clone (LC). För VDI FC Boot hade XF2026D sub-millisekunders latensprestanda fram till strax under 10oK IOPS med en topp på 247,710 3.84 IOPS och en latens på XNUMXms.
VDI FC Initial Login såg att XF2026D körde på 1ms-linjen under en tid med en topp på ungefär 65K IOPS med en latens på 7.2ms innan den tappade lite.
Med VDI FC Monday Login började XF2026D bättre latensmässigt, stannade under 1ms till cirka 48K IOS och nådde en topp på 72,224 4.73 IOPS med en latens på XNUMXms.
När vi bytte till Linked Clone (LC) tittade vi först på starttestet. I det här scenariot hade XF2026D sub-millisekunders latensprestanda fram till cirka 65K IOPS och toppade på 152,191 3.22 IOPS med XNUMXms för latens.
Med VCI LC Initial Login såg vi en starkare latens tidigare med XF2026D som höll sig under 1ms till cirka 35K IOPS med en topp på 44,461 3.76 IOPS vid XNUMXms latens.
Slutligen hade vår VDI LC Monday Login XF2026D-starten strax under 1ms och körde på 1ms-linjen till 35K IOPS innan den fortsatte med en topp på cirka 46K IOPS med en latens på 5.4ms.
Slutsats
QSAN XCubeFAS XF2026D är företagets senaste SAN och första all-flash SAN. 2U SAN är byggt kring hög tillgänglighet med inbyggd redundans och erbjuder sex 9:or av tillgänglighet. XF2026D har Cache-to-Flash-tekniken som flyttar cachad data till en M.2-modul vid strömavbrott. Sammantaget är enheten byggd för att vara enkel att använda och distribuera, lätt att integrera i alla miljöer och för att vara prisvärd oavsett företagets storlek.
I vår analys av applikationsarbetsbelastning kunde XCubeFAS XF2026D uppnå ett sammanlagt resultat på 12,635.5 5 TPS med en genomsnittlig latens på 2026 ms i SQL Server. Detta är helt i linje med de tidigare två versionerna vi testade. I Sysbench överträffade XF12,983.8D den tidigare versionen med transaktionsprestanda på 8 22,484.4 TPS för 16VM, 29,893.9 32 TPS för 2026VM och 19.7 8 TPS för 23VM. Genomsnittlig Sysbench-latens såg XF16D med 36 ms för 32 VM, 34.8 ms för 8 VM och 41.7 ms för 16 VM. Och Sysbenchs värsta scenario-latens visade det nya SAN något bättre med 65.6 ms för 32VM, XNUMX ms för XNUMXVM och XNUMX ms för XNUMXVM.
Våra VDBench-arbetsbelastningar visade en stark prestation från SAN. Utrustat med SAS-enheter kunde SAN nå några höjdpunkter som 403K IOPS i 4K-läsning, 270K IOPS i 4K-skrivning, 7.8GB/s i 64K-sekventiell läsning och 4.4GB/s i 64K-sekventiell skrivning. För vårt SQL-test träffade SAN 363K IOPS, 328K IOPS i 90-10 och 297K IOPS i 80-20. Oracle-tester visade också starka prestanda med 294K IOPS, 327K IOPS i 90-10 och 297K IOPS i 80-20. SAN hade starka VDI-klonstövlar med 248K IOPS i Full och 152K IOPS i Linked. Latensen började alltid under 1 ms och hade toppar från 1.91 ms till 7.2 ms
Anmäl dig till StorageReviews nyhetsbrev