Anfang des Jahres brachte QSAN mit dem QSAN XCubeFAS XF2026D sein erstes All-Flash-SAN auf den Markt. Der XCubeFAS XF2026D ist kein Update der XCubeSAN-Reihe von QSAN, sondern ein völlig neues SAN-Produkt. Das Produkt basiert auf Benutzerfreundlichkeit, kann in jeder Umgebung eingesetzt und integriert werden und ist unabhängig von der Größe des Unternehmens erschwinglich.
Anfang des Jahres brachte QSAN mit dem QSAN XCubeFAS XF2026D sein erstes All-Flash-SAN auf den Markt. Der XCubeFAS XF2026D ist kein Update der XCubeSAN-Reihe von QSAN, sondern ein völlig neues SAN-Produkt. Das Produkt basiert auf Benutzerfreundlichkeit, kann in jeder Umgebung eingesetzt und integriert werden und ist unabhängig von der Größe des Unternehmens erschwinglich.
Die oben dargelegten Grundlagen sind die Hauptausrichtung des QSAN XCubeFAS XF2026D. Das Unternehmen gibt an, dass das neue SAN von allen bedient und mit nur wenigen Klicks verwaltet werden kann. QSAN gibt an, dass Funktionen wie die Erstellung mehrerer Volumes, die automatische Remote-Replikation, SSD-Überwachung und Leistungsanalysen einfach zu verwenden sind. QSAN gibt außerdem an, dass der XF2026D in jeder Datenumgebung bereitgestellt und integriert werden kann, unabhängig davon, ob eine hohe Leistung oder bestimmte Funktionen benötigt werden, die sich ideal für Anwendungsfälle wie Virtualisierungsumgebungen, Big-Data-Analysen und die Verwaltung anspruchsvoller Anwendungen eignen. All dies geht mit dem Anspruch der Erschwinglichkeit einher.
Das QSAN XCubeFAS XF2026D ist ein 2U-SAN mit einer Dual-Active-Controller-Architektur. Das SAN sorgt für hohe Verfügbarkeit, indem es alles mit vollständiger Redundanz konzipiert. Es verfügt außerdem über einen automatischen Failover-/Failback-Mechanismus und Cache-Spiegelung über den NTB-Bus (Non-Transparent Bridge), um Aktiv-Aktiv-Funktionalität zu erreichen. Mit diesen Funktionen behauptet der XF2026D eine Verfügbarkeit von 99.9999 %.
Ein weiteres neues Feature, das die Datenzuverlässigkeit ebenfalls verbessert, ist der Cache-to-Flash-Speicherschutz. Diese Technologie bewahrt Cache-Daten im Falle eines Stromausfalls. Der XF2026D nutzt ein Batterie-Backup-Modul, um die Daten aus dem Cache in ein M.2-Flash-Modul zu übertragen und so sicherzustellen, dass keine Daten verloren gehen und keine Inkonsistenzen auftreten.
QSAN XCubeFAS XF2026D Spezifikationen
Formfaktor | 2U |
CPU | Intel Xeon 4-Core-Prozessor (8-Core-Prozessormodell ist ebenfalls verfügbar) |
Speicher (pro Controller) | Bis zu 128 GB DDR4 ECC |
RAID-Controller | Aktiv-Aktiv-Dual-Controller |
Speicherschutz | Cache-to-Flash-Modul Batterie-Backup-Modul + Flash-Modul |
Host-Konnektivität | |
Hostkartensteckplatz 1 | (optional): 4 x 16 GB FC (SFP+)-Ports 2 x 16 GB FC (SFP+)-Ports 4 x 10GbE iSCSI (SFP+)-Ports 2 x 10GbE iSCSI (RJ45)-Ports |
Hostkartensteckplatz 2 | (optional): 4 x 16 GB FC (SFP+)-Ports 2 x 16 GB FC (SFP+)-Ports 4 x 10GbE iSCSI (SFP+)-Ports 2 x 10GbE iSCSI (RJ45)-Ports |
Integrierte 2 x 10GBASE-T iSCSI (RJ45)-Ports Eingebauter 1 x 1GbE-Verwaltungsanschluss |
|
Lagerung | |
Bays | 26 |
Antriebsart | 2.5-Zoll-SAS, SED-SSD |
Maximal unterstützte Laufwerke | 130 |
Expansion | |
Viele Anschlussmöglichkeiten | Integrierte 2 x 12 Gbit/s SAS-Wide-Ports (SFF-8644) |
Unser | Bis zu 4 Erweiterungseinheiten mit dem 5326-Gb-SAS-Erweiterungsgehäuse XD26 (SFF 12-Bay). |
Power | |
Versorgung | 80 PLUS Platinum, zwei redundante 770 W (1+1) |
AC-Eingang | 100 – 127 V 10 A, 50–60 Hz 200 – 240 V 5 A, 50–60 Hz |
DC-Ausgang | +12V 63.4A +5VSB 2.0A |
Lüftermodul | 2 x Hot-Plug-fähige/redundante Lüftermodule |
Temperaturen | |
Betriebs | 0 bis 40 ° C |
Versand | -10 50 ° C auf ° C |
Relative Luftfeuchtigkeit | 20%-80% |
Garantie | 3-Jahres-System, 1-Jahres-Batterie-Backup |
Designen und Bauen
Wie bereits erwähnt, handelt es sich beim QSAN XCubeFAS XF2026D um ein 2U-SAN und das Design bleibt im Einklang mit den übrigen QSAN-Produkten. Auf der Vorderseite befinden sich die 26 2.5-Zoll-Laufwerksschächte mit dem charakteristischen grünen Entriegelungsknopf. Auf der rechten Seite der Frontplatte befinden sich der Netzschalter des Systems, die UID-Taste (Unique Identifier), Systemzugriffs- und Systemstatus-LEDs sowie ein USB-Anschluss für das USB-LCM-Modul.
Auf der Rückseite des Geräts befinden sich die doppelten redundanten Netzteile sowie die beiden Controller. Jeder Controller verfügt über eine integrierte 10Gbase-T-Netzwerkkonnektivität sowie eine Out-of-Band-Verwaltungsschnittstelle. Für zusätzliche Konnektivität verfügt jeder Controller über zwei Hostkartensteckplätze, die mit Dual- oder Quad-Port-8/16-Gb-Karten oder Dual- oder Quad-Port-10-Gb-Ethernet-Karten bestückt werden können. Dies bietet Benutzern eine breite Palette von Optionen zum Anschließen von Speicher an eine vielfältige Rechenzentrumsumgebung. Erweiterungsmöglichkeiten werden auch durch zwei 12-Gbit/s-SAS-Ports pro Controller unterstützt, was SAS 3.0-Erweiterungsregale ermöglicht. In der oberen linken Ecke befindet sich das Flash-to-Cache-Speicher- und Batteriemodul.
Management
Mit diesem SAN kommt ein neues Management-Betriebssystem von QSAN, XEVO. Diese HTML5-GUI folgt ähnlichen Prinzipien wie die früheren QSAN-Modelle, insbesondere der Benutzerfreundlichkeit. Die Hauptseite oder das Dashboard bietet einen schnellen Überblick über alles, worüber ein Administrator sofort Bescheid wissen muss. Dazu gehören Hardwarewarnungen, genutzte Kapazität, Systemwarnungen, Speicherübersicht und Echtzeitleistung. Oben gibt es mehrere Registerkarten, darunter: Dashboard, Speicher, Hosts, Schutz, Analyse, System und Nachrichten.
Auf der Registerkarte „Speicher“ können Benutzer die Speicherpools anzeigen oder neue erstellen. Innerhalb des Pools können sie sehen, wie viel Speicher verwendet wird, den Zustand und Status des Speichers sowie die Festplattengruppen und Volumes.
Auf der Registerkarte „Analyse“ können Benutzer wichtige Informationen wie die Leistung eines Volumes (unterteilt in Latenz, IOPS und Durchsatz) sowie die Kapazitätsnutzung eines Volumes sehen.
Die Registerkarte „System“ zeigt die Hardware und was sie gerade tut. Benutzer können zwischen den Unterregisterkarten „Arrays“, „Einstellungen“, „Datenports“ und „Wartung“ wählen. Auf der Unterregisterkarte „Arrays“ können Benutzer mit der Maus über Dinge wie das Temperatursymbol fahren, um die Temperatur für den ausgewählten Host anzuzeigen.
Benutzer können auch mit der Maus über eine bestimmte Festplatte fahren, um Typ, Temperatur, Status und geschätzte verbleibende Lebensdauer anzuzeigen.
Insgesamt sind die Benutzeroberfläche und die Verwaltung ein großer Fortschritt für QSAN. Frühere Systeme waren nicht schwer zu verwalten, aber dieses Erscheinungsbild ist viel besser. In einer Zeit, in der eine benutzerfreundliche HTML5-Schnittstelle von entscheidender Bedeutung ist, kreuzt QSAN dieses Kästchen an.
Kennzahlen
Analyse der Anwendungsauslastung
Die Anwendungs-Workload-Benchmarks für den QSAN XCubeSAN XF2026D bestehen aus der MySQL OLTP-Leistung über SysBench und der Microsoft SQL Server OLTP-Leistung mit einer simulierten TPC-C-Workload. In jedem Szenario hatten wir das Array mit 26 Toshiba PX04SV SAS 3.0 SSDs konfiguriert, die in zwei RAID12-Festplattengruppen mit 10 Laufwerken konfiguriert waren, eine an jeden Controller angeschlossen. Somit blieben zwei SSDs als Ersatz übrig. Anschließend wurden zwei 2-TB-Volumes erstellt, eines pro Festplattengruppe. In unserer Testumgebung führte dies zu einer ausgeglichenen Last für unsere SQL- und Sysbench-Workloads.
SQL Server-Leistung
Jede SQL Server-VM ist mit zwei vDisks konfiguriert: einem 100-GB-Volume für den Start und einem 500-GB-Volume für die Datenbank und Protokolldateien. Aus Sicht der Systemressourcen haben wir jede VM mit 16 vCPUs und 64 GB DRAM konfiguriert und den LSI Logic SAS SCSI-Controller genutzt. Während unsere zuvor getesteten Sysbench-Workloads die Plattform sowohl in Bezug auf Speicher-I/O als auch in Bezug auf die Kapazität ausgelastet haben, wird beim SQL-Test nach der Latenzleistung gesucht.
Dieser Test verwendet SQL Server 2014, das auf Windows Server 2012 R2-Gast-VMs ausgeführt wird, und wird durch Quests Benchmark Factory für Datenbanken belastet. Während wir diesen Benchmark traditionell zum Testen großer Datenbanken mit einer Größe von 3,000 auf lokalem oder gemeinsam genutztem Speicher verwenden, konzentrieren wir uns in dieser Iteration darauf, vier Datenbanken mit einer Größe von 1,500 gleichmäßig über den QSAN XF2026D zu verteilen (zwei VMs pro Controller).
SQL Server-Testkonfiguration (pro VM)
- Windows Server 2012 R2
- Speicherbedarf: 600 GB zugewiesen, 500 GB genutzt
- SQL Server 2014
- Datenbankgröße: Maßstab 1,500
- Virtuelle Client-Auslastung: 15,000
- RAM-Puffer: 48 GB
- Testdauer: 3 Stunden
- 2.5 Stunden Vorkonditionierung
- 30-minütiger Probezeitraum
SQL Server OLTP Benchmark Factory LoadGen-Ausrüstung
- Dell EMC PowerEdge R740xd Virtualisierter SQL-Cluster mit 4 Knoten
- 8 Intel Xeon Gold 6130 CPU für 269 GHz im Cluster (zwei pro Knoten, 2.1 GHz, 16 Kerne, 22 MB Cache)
- 1 TB RAM (256 GB pro Knoten, 16 GB x 16 DDR4, 128 GB pro CPU)
- 4 x Emulex 16 GB Dual-Port-FC-HBA
- 4 x Mellanox ConnectX-4 rNDC 25GbE Dual-Port-NIC
- VMware ESXi vSphere 6.5 / Enterprise Plus 8-CPU
Mit dem SQL Server-Transaktionsscore erreichte der XF2026D einen Gesamtscore von 12,635.5 TPS, wobei einzelne VMs zwischen 3,158.7 und 3,159 TPS liefen.
Für die durchschnittliche SQL Server-Latenz hatte der XF2026D einen Gesamtwert von 5.0 ms.
Sysbench-Leistung
. Systembankben Die VM ist mit drei vDisks konfiguriert, eine für den Start (~92 GB), eine mit der vorgefertigten Datenbank (~447 GB) und die dritte für die zu testende Datenbank (270 GB). Aus Sicht der Systemressourcen haben wir jede VM mit 16 vCPUs und 60 GB DRAM konfiguriert und den LSI Logic SAS SCSI-Controller genutzt. Lastgenerierungssysteme sind Dell R740xd-Server.
Dell PowerEdge R740xd Virtualisierter MySQL-Cluster mit 4 Knoten
- 8 Intel Xeon Gold 6130 CPU für 269 GHz im Cluster (zwei pro Knoten, 2.1 GHz, 16 Kerne, 22 MB Cache)
- 1 TB RAM (256 GB pro Knoten, 16 GB x 16 DDR4, 128 GB pro CPU)
- 4 x Emulex 16 GB Dual-Port-FC-HBA
- 4 x Mellanox ConnectX-4 rNDC 25GbE Dual-Port-NIC
- VMware ESXi vSphere 6.5 / Enterprise Plus 8-CPU
Sysbench-Testkonfiguration (pro VM)
- CentOS 6.3 64-Bit
- Speicherbedarf: 1 TB, 800 GB genutzt
- Percona XtraDB 5.5.30-rel30.1
- Datenbanktabellen: 100
- Datenbankgröße: 10,000,000
- Datenbankthreads: 32
- RAM-Puffer: 24 GB
- Testdauer: 3 Stunden
- 2 Stunden Vorkonditionierung von 32 Threads
- 1 Stunde 32 Threads
In unserem Sysbench-Benchmark haben wir mehrere Sätze von 8VMs, 16VMs und 32VMs getestet. Bei der Transaktionsleistung erreichte der XF2026D Werte von 12,983.8 TPS für 8VM, 22,484.4 TPS für 16VM und 29,893.9 TPS für 32VM.
Bei der durchschnittlichen Latenz betrug die Latenz des XF2026D 19.7 ms für 8 VMs, 23 ms für 16 VMs und 36 ms für 32 VMs.
In unserem Worst-Case-Latenz-Benchmark erreichte der XF2026D 34.8 ms für 8 VM, 41.7 ms für 16 VM und 65.6 ms für 32 VM.
VDBench-Workload-Analyse
Wenn es um das Benchmarking von Speicher-Arrays geht, sind Anwendungstests am besten und synthetische Tests stehen an zweiter Stelle. Obwohl sie keine perfekte Darstellung der tatsächlichen Arbeitslasten darstellen, helfen synthetische Tests dabei, Speichergeräte mit einem Wiederholbarkeitsfaktor zu vergleichen, der es einfach macht, Konkurrenzlösungen direkt miteinander zu vergleichen. Diese Workloads bieten eine Reihe unterschiedlicher Testprofile, die von „Vier-Ecken“-Tests über allgemeine Tests der Datenbankübertragungsgröße bis hin zu Trace-Erfassungen aus verschiedenen VDI-Umgebungen reichen. Alle diese Tests nutzen den gemeinsamen vdBench-Workload-Generator mit einer Skript-Engine, um Ergebnisse über einen großen Computing-Testcluster zu automatisieren und zu erfassen. Dadurch können wir dieselben Arbeitslasten auf einer Vielzahl von Speichergeräten wiederholen, einschließlich Flash-Arrays und einzelnen Speichergeräten. Auf der Array-Seite nutzen wir unseren Cluster aus Dell PowerEdge R740xd-Servern:
Profile:
- 4K Random Read: 100 % Read, 128 Threads, 0-120 % Iorate
- 4K Random Write: 100 % Schreiben, 64 Threads, 0-120 % Iorate
- 64K sequentielles Lesen: 100 % Lesen, 16 Threads, 0-120 % Leserate
- 64K Sequentielles Schreiben: 100 % Schreiben, 8 Threads, 0-120 % Iorate
- Synthetische Datenbank: SQL und Oracle
- VDI-Vollklon- und Linked-Clone-Traces
Bei der 4K-Spitzenleseleistung begann der XF2026D mit einer Latenzzeit von unter einer Millisekunde, bewegte sich eine Zeit lang auf der 1-ms-Linie und erreichte über 1 ms etwa 15 IOPS. Das SAN erreichte seinen Spitzenwert bei 403,790 IOPS mit einer Latenz von 6.03 ms.
Bei zufälligen 4K-Schreibvorgängen sehen wir eine Verbesserung der Latenz, wobei der XF2026D eine Latenz von unter einer Millisekunde bis etwa 250 IOPS beibehält und dann bei etwa 270 IOPS mit einer Latenz von 4.4 ms seinen Höhepunkt erreicht, bevor er etwas abfällt.
Bei der Umstellung auf 64K sequentiell lief der XF2026D beim Lesen zunächst knapp unter 1 ms, bevor er überschritt und dann einen Spitzenwert von knapp über 125 IOPS oder 7.8 GB/s mit einer Latenz von etwa 4.1 ms erreichte, bevor er leicht abfiel.
Bei 64K-Schreibvorgängen sehen wir erneut eine bessere Latenz, wobei der XF2026D eine Latenzzeit von unter einer Millisekunde bis etwa 64K IOPS oder 4 GB/s beibehält und dann bei 70,731 IOPS oder 4.4 GB/s mit einer Latenz von 3.6 ms seinen Höhepunkt erreicht.
Als nächstes kommt unser SQL-Workload, bei dem der XF2026D bis zu etwa 1 IOPS unter 210 ms blieb und dann mit 362,807 IOPS mit einer Latenz von 2.62 ms seinen Höhepunkt erreichte.
In SQL 90-10 hatte der XF2026D eine Latenz von unter einer Millisekunde bis etwa 200 IOPS und erreichte einen Spitzenwert von 328,209 IOPS mit einer Latenz von 2.82 ms.
Für SQL 80-20 blieb der XF2026D bis zu etwa 1 IOPS unter 120 ms und erreichte einen Spitzenwert von 296,772 IOPS mit einer Latenz von 3.1 ms.
Die nächste Reihe von Benchmarks betrifft Oracle-Workloads, wobei der XF2026D bis zu etwa 1 IOPS unter 125 ms bleibt und einen Spitzenwert von 293,975 IOPS und eine Latenz von 3.91 ms aufweist.
Für Oracle 90-10 erreichte der XF2026D 230 IOPS mit einer Latenz von unter einer Millisekunde und erreichte einen Spitzenwert von 327,269 IOPS bei einer Latenz von 1.91 ms.
Im Oracle 80-20-Benchmark hatte der XF2026D eine Latenzleistung von unter einer Millisekunde bis etwa 130 IOPS und erreichte einen Spitzenwert von 296,549 IOPS mit einer Latenz von 2.1 ms.
Als nächstes wechselten wir zu unseren VDI-Klontests, Full Clone (FC) und Linked Clone (LC). Für VDI FC Boot hatte der XF2026D eine Latenzleistung von unter einer Millisekunde bis knapp 10 IOPS mit einem Spitzenwert von 247,710 IOPS und einer Latenz von 3.84 ms.
Bei der ersten Anmeldung bei VDI FC bewegte sich der XF2026D eine Zeit lang auf der 1-ms-Linie mit einem Spitzenwert von etwa 65 IOPS bei einer Latenz von 7.2 ms, bevor er etwas abfiel.
Mit VDI FC Monday Login hatte der XF2026D eine bessere Latenz, blieb bis etwa 1 IOS unter 48 ms und erreichte einen Spitzenwert von 72,224 IOPS bei einer Latenz von 4.73 ms.
Beim Umstieg auf Linked Clone (LC) haben wir uns zunächst den Boottest angesehen. In diesem Szenario hatte der XF2026D eine Latenzleistung von unter einer Millisekunde bis etwa 65 IOPS und erreichte einen Spitzenwert von 152,191 IOPS mit einer Latenz von 3.22 ms.
Beim VCI LC Initial Login sahen wir zuvor eine stärkere Latenz, wobei der XF2026D bis zu etwa 1 IOPS unter 35 ms blieb und einen Spitzenwert von 44,461 IOPS bei einer Latenz von 3.76 ms erreichte.
Schließlich startete unser VDI LC Monday Login den XF2026D mit knapp 1 ms und lief die 1-ms-Linie bis zu 35 IOPS, bevor er bei etwa 46 IOPS mit einer Latenz von 5.4 ms seinen Höhepunkt erreichte.
Fazit
Das QSAN XCubeFAS XF2026D ist das neueste SAN des Unternehmens und das erste All-Flash-SAN. Das 2U-SAN basiert auf Hochverfügbarkeit mit integrierter Redundanz und bietet sechs 9er-Verfügbarkeiten. Der XF2026D verfügt über die Cache-to-Flash-Technologie, die im Falle eines Stromausfalls zwischengespeicherte Daten auf ein M.2-Modul verschiebt. Insgesamt ist das Gerät so konzipiert, dass es einfach zu verwenden und bereitzustellen ist, sich leicht in jede Umgebung integrieren lässt und unabhängig von der Unternehmensgröße erschwinglich ist.
In unserer Anwendungs-Workload-Analyse konnte der XCubeFAS XF2026D einen Gesamtwert von 12,635.5 TPS mit einer durchschnittlichen Latenz von 5 ms in SQL Server erreichen. Dies steht im Einklang mit den beiden vorherigen Versionen, die wir getestet haben. Im Sysbench übertraf der XF2026D die Vorgängerversion mit einer Transaktionsleistung von 12,983.8 TPS für 8VM, 22,484.4 TPS für 16VM und 29,893.9 TPS für 32VM. Die durchschnittliche Sysbench-Latenz lag beim XF2026D bei 19.7 ms für 8 VMs, 23 ms für 16 VMs und 36 ms für 32 VMs. Und die Latenz im Worst-Case-Szenario von Sysbench zeigte, dass das neue SAN mit 34.8 ms für 8 VM, 41.7 ms für 16 VM und 65.6 ms für 32 VM etwas besser war.
Unsere VDBench-Workloads zeigten eine starke Leistung des SAN. Ausgestattet mit SAS-Laufwerken konnte das SAN einige Höhepunkte erreichen, wie 403 IOPS beim 4K-Lesen, 270 IOPS beim 4K-Schreiben, 7.8 GB/s beim sequenziellen 64-K-Lesen und 4.4 GB/s beim sequenziellen 64-K-Schreiben. Bei unserem SQL-Test erreichte das SAN 363 IOPS, 328 IOPS in 90-10 und 297 IOPS in 80-20. Oracle-Tests zeigten ebenfalls eine starke Leistung mit 294 IOPS, 327 IOPS in 90–10 und 297 IOPS in 80–20. Das SAN verfügte über starke VDI-Klonstarts mit 248 IOPS im Vollmodus und 152 IOPS im verknüpften Modus. Die Latenz begann immer unter 1 ms und erreichte Spitzenwerte zwischen 1.91 ms und 7.2 ms
Besprechen Sie diese Rezension
Melden Sie sich für den StorageReview-Newsletter an