Eerder dit jaar lanceerde QSAN zijn eerste All-Flash SAN met de QSAN XCubeFAS XF2026D. In tegenstelling tot een update van QSAN's XCubeSAN-lijn, is de XCubeFAS XF2026D een geheel nieuw SAN-product. Het product is gebaseerd op gebruiksvriendelijkheid, kan worden ingezet en geïntegreerd in elke omgeving en is betaalbaar, ongeacht de grootte van het bedrijf.
Eerder dit jaar lanceerde QSAN zijn eerste All-Flash SAN met de QSAN XCubeFAS XF2026D. In tegenstelling tot een update van QSAN's XCubeSAN-lijn, is de XCubeFAS XF2026D een geheel nieuw SAN-product. Het product is gebaseerd op gebruiksvriendelijkheid, kan worden ingezet en geïntegreerd in elke omgeving en is betaalbaar, ongeacht de grootte van het bedrijf.
De hierboven uiteengezette fundamenten zijn de hoofdlijnen van de QSAN XCubeFAS XF2026D. Het bedrijf stelt dat het nieuwe SAN door iedereen kan worden bediend en beheerd met slechts een paar klikken. QSAN stelt dat functies zoals het maken van meerdere volumes, automatische replicatie op afstand, SSD-bewaking en prestatieanalyse eenvoudig te gebruiken zijn. QSAN stelt ook dat de XF2026D kan worden ingezet en geïntegreerd in elke gegevensomgeving, of ze nu hoge prestaties nodig hebben of bepaalde functies die ideaal zijn voor gebruikssituaties zoals virtualisatie-omgevingen, big data-analyse en het beheer van veeleisende applicaties. Al het bovenstaande komt met de claims van betaalbaarheid.
De QSAN XCubeFAS XF2026D is een 2U SAN met een dual-active controller-architectuur. Het SAN levert een hoge beschikbaarheid door alles volledig redundant te ontwerpen. Het beschikt ook over een automatisch failover/failback-mechanisme en cache-mirroring via de NTB-bus (Non-Transparent Bridge) om Active-Active-functionaliteit te bereiken. Met deze functies claimt de XF2026D een beschikbaarheid van 99.9999%.
Een andere nieuwe functie die ook de betrouwbaarheid van gegevens verbetert, is de Cache-to-Flash-geheugenbeveiliging. Deze technologie bewaart cachegegevens in geval van stroomuitval. De XF2026D maakt gebruik van een batterijback-upmodule om de gegevens uit de cache over te zetten naar een M.2-flashmodule, zodat er geen gegevens verloren gaan en er geen inconsistenties optreden.
QSAN XCubeFAS XF2026D Specificaties
Form Factor | 2U |
CPU | Intel Xeon 4-core processor (8-core processormodel is ook beschikbaar) |
Geheugen (per controller) | Tot 128 GB DDR4 ECC |
RAID-controller | Actief-actief dubbele controller |
Geheugenbescherming | Cache-naar-Flash-module Batterij back-up module + Flash module |
Host connectiviteit | |
Hostkaartsleuf 1 | (Optioneel): 4 x 16Gb FC (SFP+) poorten 2 x 16Gb FC (SFP+) poorten 4 x 10GbE iSCSI (SFP+) poorten 2 x 10GbE iSCSI-poorten (RJ45). |
Hostkaartsleuf 2 | (Optioneel): 4 x 16Gb FC (SFP+) poorten 2 x 16Gb FC (SFP+) poorten 4 x 10GbE iSCSI (SFP+) poorten 2 x 10GbE iSCSI-poorten (RJ45). |
Ingebouwde 2 x 10GBASE-T iSCSI (RJ45) poorten Ingebouwde 1 x 1GbE-beheerpoort |
|
Opbergen | |
Bays | 26 |
Drive Type | 2.5-inch SAS, SED-SSD |
Max-schijven ondersteund | 130 |
Uitbreiding | |
Connectiviteit | Ingebouwde 2 x 12Gb/s SAS brede poorten (SFF-8644) |
Mogelijkheden | Tot 4 uitbreidingseenheden met XD5326 (SFF 26-bay) 12Gb SAS-uitbreidingsbehuizing |
Power | |
Supply | 80 PLUS Platinum, twee redundante 770W (1+1) |
AC Input | 100 – 127V 10A, 50-60Hz 200 – 240V 5A, 50-60Hz |
DC Output | + 12V 63.4A +5VSB 2.0A |
Ventilatormodule | 2 x hot-pluggable/redundante ventilatormodules |
Temperatuur zone(s) | |
Operationeel | 0 tot 40 ° C |
Verzending | -10 ° C tot 50 ° C |
Relatieve Vochtigheid | 20% -80% |
Garantie | 3 jaar systeem, 1 jaar batterijback-up |
Ontwerp en bouw
Zoals gezegd is de QSAN XCubeFAS XF2026D een 2U SAN en blijft het ontwerp in lijn met de rest van de QSAN-producten. Aan de voorkant bevinden zich de 26 2.5-inch schijfposities met de kenmerkende groene ontgrendelingsknop. Aan de rechterkant van het voorpaneel bevinden zich de aan/uit-knop van het systeem, de UID-knop (Unique Identifier), systeemtoegangs- en systeemstatus-LED's en een USB-poort voor de USB LCM-module.
De achterkant van het apparaat heeft de dubbele redundante voedingen, evenals de dubbele controllers. Elke controller heeft ingebouwde dubbele 10Gbase-T netwerkconnectiviteit, naast een out-of-band beheerinterface. Voor extra connectiviteit heeft elke controller twee hostkaartsleuven, die kunnen worden geladen met dual- of quad-poort 8/16Gb-kaarten, of dual- of quad-poort 10Gb Ethernet-kaarten. Dit geeft gebruikers een breed scala aan opties voor het aansluiten van opslag in een diverse datacenteromgeving. Uitbreidingsmogelijkheden worden ook ondersteund via twee 12Gb/s SAS-poorten per controller, waardoor SAS 3.0-uitbreidingsplanken mogelijk zijn. In de linkerbovenhoek bevindt zich de Flash-to-Cache-geheugen- en batterijmodule.
beheer
Met deze SAN komt een nieuw beheer-OS van QSAN, XEVO. Deze HTML5 GUI volgt vergelijkbare principes als de eerdere QSAN-modellen, met name gebruiksgemak. De hoofdpagina of het dashboard heeft een snel overzicht van alles wat een beheerder mogelijk meteen moet weten. Dit omvat hardwarewaarschuwingen, gebruikte capaciteit, systeemwaarschuwingen, opslagoverzicht en realtime prestaties. Er zijn verschillende tabbladen bovenaan, waaronder: Dashboard, Opslag, Hosts, Bescherming, Analyse, Systeem en Berichten.
Onder het tabblad Opslag kunnen gebruikers de opslagpools zien of nieuwe aanmaken. Binnen de pool kunnen ze zien hoeveel opslagruimte wordt gebruikt, de gezondheid en status van de opslag, evenals de schijfgroepen en volumes.
Op het tabblad Analyse kunnen gebruikers belangrijke informatie zien, zoals de prestaties van een volume (uitgesplitst in latentie, IOPS en doorvoer) en het capaciteitsgebruik van een volume.
Het tabblad Systeem toont de hardware en wat deze momenteel doet. Gebruikers kunnen kiezen tussen de subtabbladen Arrays, Instellingen, Datapoorten en Onderhoud. Op het subtabblad Arrays kunnen gebruikers met de muis over zaken als het temperatuurpictogram gaan om de temperatuur voor de geselecteerde host te zien.
Gebruikers kunnen ook de muisaanwijzer op een specifieke schijf plaatsen om het type, de temperatuur, de status en de geschatte resterende levensduur te zien.
Over het algemeen zijn de gebruikersinterface en het beheer een grote stap voorwaarts voor QSAN. Eerdere systemen waren niet moeilijk te beheren, maar deze look en feel is veel beter. In een tijdperk waarin een bruikbare HTML5-interface tafelbelangen zijn, vinkt QSAN dat vakje af.
Prestatie
Analyse van de werkbelasting van applicaties
De benchmarks voor de toepassingswerklast voor de QSAN XCubeSAN XF2026D bestaan uit de MySQL OLTP-prestaties via SysBench en Microsoft SQL Server OLTP-prestaties met een gesimuleerde TPC-C-werkbelasting. In elk scenario hadden we de array geconfigureerd met 26 Toshiba PX04SV SAS 3.0 SSD's, geconfigureerd in twee RAID12-schijfgroepen met 10 schijven, één vastgemaakt aan elke controller. Hierdoor bleven er 2 SSD's over als reserve. Vervolgens werden twee volumes van 5 TB gemaakt, één per schijfgroep. In onze testomgeving zorgde dit voor een evenwichtige belasting van onze SQL- en Sysbench-workloads.
SQL Server-prestaties
Elke SQL Server VM is geconfigureerd met twee vDisks: een volume van 100 GB voor opstarten en een volume van 500 GB voor de database en logbestanden. Vanuit het perspectief van systeemresources hebben we elke VM geconfigureerd met 16 vCPU's, 64 GB DRAM en de LSI Logic SAS SCSI-controller gebruikt. Terwijl onze Sysbench-workloads het platform eerder verzadigden in zowel opslag-I/O als capaciteit, zoekt de SQL-test naar latentieprestaties.
Deze test maakt gebruik van SQL Server 2014 op Windows Server 2012 R2 gast-VM's en wordt benadrukt door Quest's Benchmark Factory for Databases. Hoewel ons traditionele gebruik van deze benchmark was om grote databases met een schaal van 3,000 te testen op lokale of gedeelde opslag, richten we ons in deze iteratie op het gelijkmatig verspreiden van vier databases met een schaal van 1,500 over de QSAN XF2026D (twee VM's per controller).
SQL Server-testconfiguratie (per VM)
- Windows Server 2012 R2
- Opslagcapaciteit: 600 GB toegewezen, 500 GB gebruikt
- SQL Server 2014
- Databasegrootte: schaal 1,500
- Virtuele clientbelasting: 15,000
- RAM-buffer: 48 GB
- Testduur: 3 uur
- 2.5 uur voorconditionering
- 30 minuten proefperiode
SQL Server OLTP Benchmark Factory LoadGen-apparatuur
- Dell EMC PowerEdge R740xd Gevirtualiseerde SQL-cluster met 4 knooppunten
- 8 Intel Xeon Gold 6130 CPU voor 269 GHz in cluster (twee per node, 2.1 GHz, 16 cores, 22 MB cache)
- 1 TB RAM (256 GB per knooppunt, 16 GB x 16 DDR4, 128 GB per CPU)
- 4 x Emulex 16 GB FC HBA met twee poorten
- 4 x Mellanox ConnectX-4 rNDC 25GbE dual-port NIC
- VMware ESXi vSphere 6.5 / Enterprise Plus 8-CPU
Met de transactiescore van SQL Server had de XF2026D een totale score van 12,635.5 TPS met individuele VM's die liepen van 3,158.7 tot 3,159 TPS.
Voor de gemiddelde latentie van SQL Server had de XF2026D een totale score van 5.0 ms.
Sysbench-prestaties
Elke sysbench VM is geconfigureerd met drie vDisks, één voor opstarten (~ 92 GB), één met de vooraf gebouwde database (~ 447 GB) en de derde voor de database die wordt getest (270 GB). Vanuit het perspectief van systeemresources hebben we elke VM geconfigureerd met 16 vCPU's, 60 GB DRAM en maakten we gebruik van de LSI Logic SAS SCSI-controller. Load gen-systemen zijn Dell R740xd-servers.
Dell PowerEdge R740xd Gevirtualiseerde MySQL 4 node cluster
- 8 Intel Xeon Gold 6130 CPU voor 269 GHz in cluster (twee per node, 2.1 GHz, 16 cores, 22 MB cache)
- 1 TB RAM (256 GB per knooppunt, 16 GB x 16 DDR4, 128 GB per CPU)
- 4 x Emulex 16 GB FC HBA met twee poorten
- 4 x Mellanox ConnectX-4 rNDC 25GbE dual-port NIC
- VMware ESXi vSphere 6.5 / Enterprise Plus 8-CPU
Sysbench-testconfiguratie (per VM)
- CentOS 6.3 64-bits
- Opslagcapaciteit: 1 TB, 800 GB gebruikt
- Percona XtraDB 5.5.30-rel30.1
- Databasetabellen: 100
- Databasegrootte: 10,000,000
- Database-threads: 32
- RAM-buffer: 24 GB
- Testduur: 3 uur
- 2 uur preconditionering 32 threads
- 1 uur 32 draden
In onze Sysbench-benchmark hebben we verschillende sets van 8VM's, 16VM's en 32VM's getest. In transactieprestaties bereikte de XF2026D nummers van 12,983.8 TPS voor 8VM, 22,484.4 TPS voor 16VM en 29,893.9 TPS voor 32VM.
Met een gemiddelde latentie had de XF2026D 19.7 ms voor 8 VM's, 23 ms voor 16 VM's en 36 ms voor 32 VM's.
In onze latency-benchmark in het slechtste geval haalde de XF2026D 34.8 ms voor 8 VM, 41.7 ms voor 16 VM en 65.6 ms voor 32 VM.
VDBench-werkbelastinganalyse
Als het gaat om het benchmarken van opslagarrays, is het testen van toepassingen het beste en komt het synthetische testen op de tweede plaats. Hoewel het geen perfecte weergave is van de daadwerkelijke werkbelasting, helpen synthetische tests wel om opslagapparaten te baseren met een herhaalbaarheidsfactor die het gemakkelijk maakt om appels met appels te vergelijken tussen concurrerende oplossingen. Deze workloads bieden een scala aan verschillende testprofielen, variërend van "four corners"-tests, algemene tests voor de grootte van database-overdrachten, evenals het vastleggen van sporen uit verschillende VDI-omgevingen. Al deze tests maken gebruik van de gemeenschappelijke vdBench-workloadgenerator, met een scripting-engine om resultaten te automatiseren en vast te leggen over een groot rekentestcluster. Hierdoor kunnen we dezelfde workloads herhalen op een breed scala aan opslagapparaten, waaronder flash-arrays en individuele opslagapparaten. Aan de arrayzijde gebruiken we ons cluster van Dell PowerEdge R740xd-servers:
profielen:
- 4K willekeurig lezen: 100% lezen, 128 threads, 0-120% joate
- 4K willekeurig schrijven: 100% schrijven, 64 threads, 0-120% snelheid
- 64K sequentieel lezen: 100% lezen, 16 threads, 0-120% jorate
- 64K sequentieel schrijven: 100% schrijven, 8 threads, 0-120% snelheid
- Synthetische database: SQL en Oracle
- VDI volledige kloon en gekoppelde kloonsporen
In 4K-piekleesprestaties begon de XF2026D met een latentie van minder dan een milliseconde, reed een tijdje op de lijn van 1 ms en ging over 1 ms rond 15K IOPS. De SAN bereikte een piek van 403,790 IOPS met een latentie van 6.03 ms.
Met 4K willekeurige schrijfbewerkingen zien we een verbetering in latentie waarbij de XF2026D een latentie van minder dan een milliseconde handhaaft tot ongeveer 250K IOPS en een piek bereikt van ongeveer 270K IOPS met een latentie van 4.4 ms voordat hij wat afneemt.
De XF64D schakelde over naar 2026K sequentieel en begon slechts een haar onder 1 ms in lezen voordat hij overging en vervolgens piekte over iets meer dan 125K IOPS of 7.8 GB / s met een latentie van ongeveer 4.1 ms voordat hij iets afnam.
Met 64K schrijven zien we opnieuw een betere latentie waarbij de XF2026D een latentie van minder dan een milliseconde handhaaft tot ongeveer 64K IOPS of 4GB/s en een piek bereikt van 70,731 IOPS of 4.4GB/s met 3.6ms latentie.
De volgende stap is onze SQL-workload waarbij de XF2026D onder de 1 ms bleef tot ongeveer 210 IOPS en piekte op 362,807 IOPS met een latentie van 2.62 ms.
In SQL 90-10 had de XF2026D een latentie van minder dan een milliseconde tot ongeveer 200 IOPS en piekte hij op 328,209 IOPS met een latentie van 2.82 ms.
Voor SQL 80-20 bleef de XF2026D onder de 1 ms tot ongeveer 120 IOPS en piekte op 296,772 IOPS met een latentie van 3.1 ms.
De volgende reeks benchmarks zijn Oracle-workloads, waarbij de XF2026D onder de 1 ms blijft tot ongeveer 125 IOPS en een piek heeft van 293,975 IOPS en een latentie van 3.91 ms.
Voor Oracle 90-10 bereikte de XF2026D 230 IOPS met een latentie van minder dan een milliseconde en had een piek van 327,269 IOPS bij een latentie van 1.91 ms.
In de Oracle 80-20 benchmark had de XF2026D sub-milliseconde latentieprestaties tot ongeveer 130K IOPS en piekte op 296,549 IOPS met 2.1 ms voor latentie.
Vervolgens zijn we overgestapt op onze VDI-kloontesten, Full Clone (FC) en Linked Clone (LC). Voor VDI FC Boot had de XF2026D een latentieprestatie van minder dan een milliseconde tot iets minder dan 10oK IOPS met een piek van 247,710 IOPS en een latentie van 3.84 ms.
VDI FC Initial Login zag de XF2026D enige tijd op de lijn van 1 ms rijden met een piek van ongeveer 65K IOPS bij een latentie van 7.2 ms voordat hij een beetje terugviel.
Met VDI FC Monday Login begon de XF2026D een betere latentie, bleef onder de 1 ms tot ongeveer 48K IOS en bereikte een piek van 72,224 IOPS bij een latentie van 4.73 ms.
Bij het overschakelen naar Linked Clone (LC) hebben we eerst gekeken naar de opstarttest. In dit scenario had de XF2026D latentieprestaties van minder dan een milliseconde tot ongeveer 65 IOPS en piekte hij op 152,191 IOPS met 3.22 ms voor latentie.
Met VCI LC Initial Login zagen we eerder een sterkere latentie, waarbij de XF2026D onder de 1 ms bleef tot ongeveer 35K IOPS met een piek van 44,461 IOPS bij een latentie van 3.76 ms.
Eindelijk had onze VDI LC Monday Login de XF2026D start iets minder dan 1 ms en bereed de lijn van 1 ms tot 35K IOPS voordat hij piekte op ongeveer 46K IOPS met een latentie van 5.4 ms.
Conclusie
De QSAN XCubeFAS XF2026D is de nieuwste SAN van het bedrijf en de eerste all-flash SAN. De 2U SAN is gebouwd rond hoge beschikbaarheid met ingebouwde redundantie en biedt zes 9's beschikbaarheid. De XF2026D heeft de Cache-to-Flash-technologie die in het geval van een stroomstoring gegevens in de cache naar een M.2-module verplaatst. Over het algemeen is het apparaat gebouwd om eenvoudig te gebruiken en te implementeren, eenvoudig te integreren in elke omgeving en betaalbaar, ongeacht de grootte van het bedrijf.
In onze Application Workload Analysis kon de XCubeFAS XF2026D een totale score van 12,635.5 TPS behalen met een gemiddelde latentie van 5 ms in SQL Server. Dit komt precies overeen met de vorige twee versies die we hebben getest. In Sysbench overtrof de XF2026D de vorige versie met transactieprestaties van 12,983.8 TPS voor 8VM, 22,484.4 TPS voor 16VM en 29,893.9 TPS voor 32VM. De gemiddelde Sysbench-latentie zag de XF2026D met 19.7 ms voor 8 VM's, 23 ms voor 16 VM's en 36 ms voor 32 VM's. En de latentie in het slechtste geval van Sysbench liet de nieuwe SAN iets beter zien met 34.8 ms voor 8 VM, 41.7 ms voor 16 VM en 65.6 ms voor 32 VM.
Onze VDBench-workloads toonden sterke prestaties van het SAN. Uitgerust met SAS-schijven kon de SAN een aantal hoogtepunten behalen, zoals 403K IOPS in 4K lezen, 270K IOPS in 4K schrijven, 7.8 GB/s in 64K sequentiële lezing en 4.4 GB/s in 64K sequentiële schrijfbewerking. Voor onze SQL-test bereikte de SAN 363K IOPS, 328K IOPS in 90-10 en 297K IOPS in 80-20. Oracle-tests toonden ook sterke prestaties met 294K IOPS, 327K IOPS in 90-10 en 297K IOPS in 80-20. De SAN had sterke VDI-kloonlaarzen met 248K IOPS in Full en 152K IOPS in Linked. Latentie begon altijd onder 1 ms en had pieken variërend van 1.91 ms tot 7.2 ms
Meld u aan voor de StorageReview-nieuwsbrief