NVMe-Flash-Speicher hat die Branche im Sturm erobert und sich als De-facto-Standard etabliert, wenn Hochleistungsspeicher mit geringer Latenz erforderlich ist. Es gibt jedoch Zeiten, in denen NVMe möglicherweise übertrieben ist, oder Fälle, in denen ein Hybrid-Flash-Ansatz sinnvoller ist. Viele serverbasierte softwaredefinierte Lösungen, die Flash nutzen, können dies in einer mehrstufigen Funktion tun. VMware vSAN und Microsoft Azure Stack HCI sind in dieser Hinsicht vielleicht die bekanntesten; Beide können einen kleinen Hochleistungs-Flash-Pool für das Tiering und kostengünstigere SSDs für die Kapazität nutzen. Die Kombination kostengünstigerer SATA-SSDs mit einer geringen Anzahl an NVMe bietet eine hervorragende Mischung aus Leistung, Kapazität und Kosten.
NVMe-Flash-Speicher hat die Branche im Sturm erobert und sich als De-facto-Standard etabliert, wenn Hochleistungsspeicher mit geringer Latenz erforderlich ist. Es gibt jedoch Zeiten, in denen NVMe möglicherweise übertrieben ist, oder Fälle, in denen ein Hybrid-Flash-Ansatz sinnvoller ist. Viele serverbasierte softwaredefinierte Lösungen, die Flash nutzen, können dies in einer mehrstufigen Funktion tun. VMware vSAN und Microsoft Azure Stack HCI sind in dieser Hinsicht vielleicht die bekanntesten; Beide können einen kleinen Hochleistungs-Flash-Pool für das Tiering und kostengünstigere SSDs für die Kapazität nutzen. Die Kombination kostengünstigerer SATA-SSDs mit einer geringen Anzahl an NVMe bietet eine hervorragende Mischung aus Leistung, Kapazität und Kosten.
Ein weiterer Faktor bei der Überlegung über den Einsatz von Flash ist der Server selbst. Zwar gibt es viele reine NVMe-Server von großen und kleinen Anbietern, doch oft ist es unpraktisch oder unnötig, diesen Weg zu gehen. Da die Kosten für NVMe-Laufwerke höher sind als für SATA, verfügen die meisten heute verkauften Server über mehrere NVMe-Schächte, die für den Rest mit SATA/SAS gemischt sind. Ein solcher Server, der auf diese Weise verkauft wird, ist der Dell EMC PowerEdge R640.
Der Dell EMC PowerEdge R640 ist ein 1U-Server mit 2 Sockeln, der für Aufgaben entwickelt wurde, bei denen es auf die Rechendichte ankommt. In unserem Labor haben wir einen R640 mit 10 2.5-Zoll-Laufwerksschächten konfiguriert, darunter 4 NVMe/SAS/SATA-Kombinationsschächten und 6 SAS/SATA-Schächten, obwohl Dell eine große Auswahl an Konfigurationen anbietet. Mit dieser Art der Speicherkonfiguration können wir bis zu vier sehr schnelle NVMe-SSDs sowie kostenoptimierte SATA-SSDs nutzen. Die Kombinationsschächte ermöglichen es Kunden auch, bei steigendem I/O-Bedarf mehr NVMe-SSDs einzusetzen oder je nach den spezifischen Anforderungen des Builds bei mehr SATA oder SAS zu bleiben.
SK Hynix PE6011 SSD
Um dieses Konzept weiter zu veranschaulichen, haben wir mit gearbeitet SK hynix eine Gruppe von testen PE6011 NVMe SSDs und eine Gruppe von SE4011 SATA SSDs. Diese Tests werden durchgeführt, um zu zeigen, wie jedes Laufwerk das andere ergänzen kann, wobei NVMe eine größere Bandbreite und ein größeres I/O-Potenzial bietet und SATA die Kapazitätsanforderungen ohne wesentliche Einbußen bei Latenz oder Leistung bietet. Die Tests machen deutlich, wo die Leistungsbereiche liegen, sodass das Unternehmen ein vollständiges Bild hat, das bei der Entscheidungsfindung hilfreich ist, insbesondere bei der Architektur softwaredefinierter Lösungen wie einem Objektspeicher (SUSE Enterprise Storage) oder einer traditionelleren virtuellen Speicher-Appliance (StoreONE). .
SATA vs. NVMe SSDs – Dell EMC PowerEdge R640 Testbed
In unserer Testkonfiguration haben wir einen Dell PowerEdge R640 genutzt, der mit zwei skalierbaren Intel Xeon 2-CPUs der 8280. Generation mit einer Taktrate von 2.7 GHz und jeweils 28 Kernen ausgestattet ist. Gepaart mit diesen CPUs waren zwölf 32 GB 2933 MHz DDR4-Module, was dem System einen kombinierten Speicherbedarf von 384 GB verleiht. Für die SATA-Konnektivität enthielt der R640 eine PERC H740P RAID-Karte und im HBA-Pass-Through-Modus konfigurierte Laufwerke. Für die NVMe-Konnektivität kommunizieren alle vier SSDs über direkte PCIe-Lanes mit der zweiten CPU, ohne dass ein PCIe-Switch im R2 verwendet werden muss. Diese Methode umging die Auswirkungen des Controller-Cache und konzentrierte sich stattdessen auf die Leistung der Laufwerke selbst insgesamt oder einzeln in VMware.
Dell EMC PowerEdge R640
Unser Testaufbau bestand aus zwei Speicherkonfigurationen. Die erste bestand aus vier PE6011-NVMe-SSDs, die die vier NVMe-Schächte im PowerEdge R640 vollständig ausstatteten und sechs verbleibende SATA/SAS-Schächte offen ließen. Bei der zweiten handelte es sich um acht SE4011-SATA-SSDs, die alle dedizierten SATA/SAS-Schächte vollständig ausnutzten, so dass zwei NVMe-Kombischächte verfügbar blieben.
Für Bare-Metal-Benchmarks verwendeten wir minimal CentOS 7.2 (1908), wobei OpenJava neben vdbench installiert war. Wir haben jede Laufwerksgruppe insgesamt gemessen und dabei die Spitzenleistung von vier PE6011-NVMe-SSDs und anschließend von acht SE4011-SATA-SSDs festgestellt. In unserer virtualisierten Testumgebung haben wir VMware ESXi 6.7u3 installiert, einzelne SSDs mit Datenspeichern formatiert und darauf SQL Server- oder MySQL-Datenbanken platziert. Für Sysbench-Tests nutzen wir 8 VMs, wobei bei den NVMe-Tests zwei auf jeder SSD und bei den SATA-Tests eine pro SSD platziert werden. Für SQL Server, bei dem der Test nur aus 4 VMs besteht, platzieren wir jede auf einer eigenen SSD, sodass wir vier NVMe-SSDs oder vier SATA-SSDs testen können.
VDbench-Tests / Thread-Anzahl
Alle diese Tests nutzen den gemeinsamen vdBench-Workload-Generator mit einer Skript-Engine, um Ergebnisse über einen großen Computing-Testcluster zu automatisieren und zu erfassen. Dadurch können wir dieselben Arbeitslasten auf einer Vielzahl von Speichergeräten wiederholen, einschließlich Flash-Arrays und einzelnen Speichergeräten.
Profile:
- 4K Random Read: 100 % Read, 128 Threads, 0-120 % Iorate
- 4K Random Write: 100 % Schreiben, 128 Threads, 0-120 % Iorate
- 64K sequentielles Lesen: 100 % Lesen, 32 Threads, 0-120 % Leserate
- 64K Sequentielles Schreiben: 100 % Schreiben, 16 Threads, 0-120 % Iorate
SQL Server-Konfiguration (4VMs)
Das Microsoft SQL Server OLTP-Testprotokoll von StorageReview verwendet den aktuellen Entwurf des Benchmark C (TPC-C) des Transaction Processing Performance Council, einen Online-Transaktionsverarbeitungs-Benchmark, der die Aktivitäten in komplexen Anwendungsumgebungen simuliert. Der TPC-C-Benchmark kommt der Messung der Leistungsstärken und Engpässe der Speicherinfrastruktur in Datenbankumgebungen näher als synthetische Leistungsbenchmarks.
Jede SQL Server-VM ist mit zwei vDisks konfiguriert: einem 100-GB-Volume für den Start und einem 500-GB-Volume für die Datenbank und Protokolldateien. Aus Sicht der Systemressourcen haben wir jede VM mit 16 vCPUs und 64 GB DRAM konfiguriert und den LSI Logic SAS SCSI-Controller genutzt. Während unsere zuvor getesteten Sysbench-Workloads die Plattform sowohl in Bezug auf Speicher-I/O als auch in Bezug auf die Kapazität ausgelastet haben, prüft der SQL-Test die Latenzleistung.
Dieser Test verwendet SQL Server 2014, das auf Windows Server 2012 R2-Gast-VMs ausgeführt wird, und wird durch Dells Benchmark Factory für Datenbanken belastet. Während wir diesen Benchmark traditionell dazu verwenden, große Datenbanken mit einer Größe von 3,000 auf lokalem oder gemeinsam genutztem Speicher zu testen, konzentrieren wir uns in dieser Iteration darauf, vier Datenbanken mit einer Größe von 1,500 gleichmäßig auf unseren Servern zu verteilen.
SQL Server-Testkonfiguration (pro VM)
- Windows Server 2012 R2
- Speicherbedarf: 600 GB zugewiesen, 500 GB genutzt
- SQL Server 2014
- Datenbankgröße: Maßstab 1,500
- Virtuelle Client-Auslastung: 15,000
- RAM-Puffer: 48 GB
- Testdauer: 3 Stunden
- 2.5 Stunden Vorkonditionierung
- 30-minütiger Probezeitraum
MySQL Sysbench-Konfiguration (8VMs)
Unsere Percona MySQL OLTP-Datenbank misst die Transaktionsleistung über SysBench. Dieser Test misst die durchschnittliche TPS (Transaktionen pro Sekunde), die durchschnittliche Latenz und auch die durchschnittliche 99. Perzentil-Latenz.
Jede Sysbench-VM ist mit drei vDisks konfiguriert: eine für den Start (~92 GB), eine mit der vorgefertigten Datenbank (~447 GB) und die dritte für die zu testende Datenbank (270 GB). Aus Sicht der Systemressourcen haben wir jede VM mit 16 vCPUs und 60 GB DRAM konfiguriert und den LSI Logic SAS SCSI-Controller genutzt.
Sysbench-Testkonfiguration (pro VM)
- CentOS 6.3 64-Bit
- Percona XtraDB 5.5.30-rel30.1
- Datenbanktabellen: 100
- Datenbankgröße: 10,000,000
- Datenbankthreads: 32
- RAM-Puffer: 24 GB
- Testdauer: 3 Stunden
- 2 Stunden Vorkonditionierung von 32 Threads
- 1 Stunde 32 Threads
SK hynix SATA- und NVMe-SSD-Leistungsergebnisse
Um die Leistung sowohl der SK hynix PE6011 NVMe SSD als auch der SE4011 SATA SSD zu charakterisieren, haben wir eine synthetische „Vier-Ecken“-Workload durchgeführt. Dabei wurde die Rohleistung von vier NVMe-SSDs mit acht SATA-SSDs verglichen, die alle direkt angesprochen wurden, um ein Gesamt-I/O-Bild zu erhalten, ohne dass RAID die Leistung beeinträchtigte.
Bei unserem ersten Workload wurde die maximale Lesebandbreite jeder Laufwerksgruppe mit einer sequentiellen Workload von 64 KB gemessen. Bei dieser Arbeitslast haben wir eine Spitzenbandbreite von 3.97 GB/s bei einer Latenz von 4 ms bei der SATA-Gruppe mit acht Laufwerken gemessen. Die NVMe-Gruppe mit vier Laufwerken hat eine Spitzenbandbreite von 10.76 GB/s bei 0.734 ms gemessen.
Als nächstes haben wir uns die sequentielle Schreibbandbreite bei derselben sequentiellen Arbeitslast von 64 KB angesehen. In dieser Einstellung erreichte die SATA-SSD-Gruppe in der Spitze 3.06 GB/s, bevor sie bei einer Übersättigung auf 2.8 GB/s mit einer Latenz von 2.8 ms zurückging. Die NVMe-SSD-Gruppe konnte jedoch bei einer Latenz von 3.6 ms auf 1.1 GB/s skaliert werden.
Wir konzentrieren uns nun auf unsere Spitzendurchsatztests zur Messung der 4K-Zufallsleistung und schauen uns zunächst unsere Leselast an. In dieser Einstellung erreichte die Gruppe aus acht SATA-SSDs einen Spitzenwert von 542 IOPS bei einer Latenz von 1.9 ms. Im Vergleich dazu konnten die vier NVMe-SSDs sie mit einem Spitzendurchsatz von 2.46 Mio. IOPS bei einer Latenz von 0.205 ms weit übertreffen.
Die letzte Komponente unserer synthetischen „Vier-Ecken“-Arbeitslast maß die zufällige 4K-Schreibleistung jeder Laufwerksgruppe. Die acht SATA-SSDs konnten eine Spitzenleistung von 500 IOPS bei einer Latenz von 1.99 ms bieten, während die vier NVMe-SSDs 835 IOPS bei einer Latenz von 0.572 ms boten.
In der letzten Phase unserer synthetischen Tests haben wir uns zwei VDI-Anwendungsfälle angesehen, der erste war VDI Full Clone Boot. Bei dieser Arbeitslast boten die vier PE6011 NVMe SSDs eine Spitzenbandbreite von 384 IOPS oder 5.3 GB/s bei einer Latenz von 0.33 ms, während die acht SATA SE4011 SATA SSDs eine Spitzenbandbreite von 202 IOPS oder 2.8 GB/s bei einer Latenz von 1.2 ms erreichten.
Bei der Messung der Leistung der PE6011 NVMe SSDs stellten wir fest, dass die Spitzenbandbreite dieser Gruppe 186 IOPS oder 3.5 GB/s bei 0.55 ms erreichte. Die SATA-Gruppe mit acht Laufwerken erreichte mehr als 109 IOPS oder 2.1 GB/s bei einer Latenz von 1.9 ms.
Wenn wir uns die Leistung der einzelnen Laufwerksgruppen bei unseren Four-Corner- und VDI-Workloads ansehen, erkennen wir, dass ein Verhältnis von SATA zu NVME von 2:1 eine gute Balance zwischen Lese- und Schreibleistung bietet. Die PE6011-SSDs konnten im Vergleich zu ihren SATA-Gegenstücken einen sehr hohen Lesedurchsatz und eine sehr hohe Bandbreite bei geringer Latenz bieten. Was den Schreibdurchsatz und die Bandbreite angeht, waren die SE4011-SSDs in der Lage, Arbeitslasten zu absorbieren, die ihren NVMe-Gegenstücken nicht allzu weit hinterherhinkten. Dies ist wichtig, wenn verschiedene Laufwerksklassen in einer Speicherlösung kombiniert werden, bei der Daten schnell genug zwischen den Ebenen verschoben werden müssen, ohne eingehende Arbeitslasten zu verlangsamen .
Unsere letzten beiden Workloads befassen sich mit der Leistung von Microsoft SQL Server TPC-C und MySQL Sysbench bei der Ausführung auf mehreren VMs in einer virtualisierten VMWare ESXi 6.7u3-Umgebung. Beide Tests sind darauf ausgelegt, die Leistung in der Praxis zu zeigen, wobei sich unser SQL Server-Workload auf die Latenz konzentriert und unser MySQL-Test sich auf die maximale Transaktionsleistung konzentriert.
In unserem SQL Server bestand die Arbeitslast für dieses Projekt aus dem Testen von 4 VMs, die jeweils in einem einzelnen VMFS 5-Datenspeicher platziert waren. Diese Arbeitslast nutzte vier der SK hynix PE6011 NVMe SSDs und vier SE4011 SATA SSDs. Mit Quest Benchmark Factory werden auf jede VM 15 virtuelle Benutzer angewendet und die Reaktionsfähigkeit der Datenbank gemessen.
Bei den vier SK hynix PE6011 NVMe SSDs haben wir eine durchschnittliche Latenz von 2 ms auf allen vier VMs gemessen. Bei der Verlagerung derselben Arbeitslast auf die vier SE4011-SATA-SSDs stieg die Latenz auf durchschnittlich 16 ms.
In unserem letzten Datenbank-Workload haben wir uns die Leistung von 8 VMs angesehen. Bei 8 VMs platzieren wir zwei auf jeder der 4 NVMe-SSDs und eine auf jeder der 8 SATA-SSDs. Bei diesem Workload messen wir die individuelle Transaktionsleistung jeder VM und aggregieren sie zu einer Gesamtpunktzahl.
Auf den vier SK hynix PE6011 NVMe SSDs haben wir insgesamt 18,525 TPS bei einer durchschnittlichen Latenz von 13.81 ms gemessen. Bei der Verlagerung dieser Arbeitslast auf die acht SK hynix SE4011 NVMe SSDs ergab sich eine Gesamtleistung von 13,032 TPS bei einer durchschnittlichen Latenz von 19.64 ms.
SATA vs. NVMe SSDs – Endgültig Gedanken
Wenn Sie über eine Speicherform nachdenken, ist es wichtig, die Leistungs-, Kosten- und Kapazitätsmerkmale des betreffenden Systems zu verstehen. In diesem Fall haben wir es mit einem vielfältigen SSD-Portfolio von SK hynix zu tun, das nahezu unbegrenzte Anwendungsfälle abdecken kann. Da SK hynix SATA- und NVMe-SSDs anbietet, können die Laufwerke auf vielfältige Weise genutzt werden. Obwohl NVMe-SSDs eindeutig schnell sind, haben sie einen Preisaufschlag gegenüber SATA. Auf der anderen Seite verzichten SATA-SSDs auf die Geschwindigkeit, die NVMe bietet, sind aber wirtschaftlicher und profitieren dennoch von allen TCO-Vorteilen, die Flash gegenüber Festplatten bietet. Daher können die meisten Unternehmen von einem Hybrid-Flash-Ansatz profitieren, der die Leistung von NVMe mit der günstigen Wirtschaftlichkeit von SATA kombiniert.
Nirgendwo wird diese Chance deutlicher als im Software-Defined-Storage- und Hyperkonvergenzmarkt. Die meisten SDS- und HCI-Bereitstellungen sind darauf ausgelegt, die Vorteile verschiedener Speicherklassen zu nutzen. StoreONE, Microsoft Azure Stack HCI und VMware vSAN sind gute Beispiele dafür. In einigen Fällen können die NVMe-SSDs als Cache oder Schicht vor den SATA-Laufwerken fungieren, die als Kapazität für das System dienen. In anderen Fällen können unterschiedliche Pools erstellt werden, in diesem Fall ein Leistungspool von NVMe und ein SATA-Pool für weniger kritische Anwendungs-Workloads.
Um die Vorteile beider SSD-Typen zu veranschaulichen, haben wir eine Gruppe von PE6011 NVMe SSDs zusammen mit SE4011 SATA SSDs in einem Dell EMC PowerEdge R640 getestet. Unsere wichtigsten Ergebnisse zeigen, dass die PE6011 NVMe SSDs in der Lage sind, eine starke Leistung mit geringer Latenz für unsere synthetischen und Anwendungs-Workloads bereitzustellen und eine Lesebandbreite von über 10.7 GB/s bereitzustellen. Darüber hinaus zeigen unsere Ergebnisse, dass die SE4011-SATA-SSDs die NVMe-SSDs ergänzen und eine stabile Kapazitätsstufe für alle unsere Arbeitslasten bieten. Dies ist ein wichtiger Gesichtspunkt bei Tiering- oder Caching-Szenarien, bei denen Daten auf einem der beiden Speicherpools liegen können. Die Schreibleistung der SATA SE4011-Gruppe hielt sich sehr gut und betrug 2.8 GB/s auf acht Laufwerken im Vergleich zu 3.6 GB/s bei vier PE6011 NVMe SSDs. Wenn Workloads aus der Phase genommen werden oder eine gute Leistung erbringen müssen, bevor sie in den Cache oder das Tiering verschoben werden, können sie dank der starken Schreibleistung ein konsistentes Benutzererlebnis für eine ausgewogene Speicherlösung bieten.
SK hynix hat seine Bemühungen im Bereich Enterprise Flash in den letzten anderthalb Jahren verdoppelt und ist schnell mit einem vielfältigen, vertikal integrierten Portfolio auf den Markt gekommen. Diese Produktpalette bietet Kunden die Wahl, um sicherzustellen, dass ihre Bereitstellungen wie erwartet funktionieren. Unabhängig davon, ob die Laufwerke in eine SDS-Lösung oder einen HCI-Cluster integriert werden oder einfach als Serverspeicher dienen, ist SK hynix bereit, seine Kunden auf diesem Weg zu unterstützen.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS Feed
Dieser Bericht wird von SK hynix gesponsert. Alle in diesem Bericht geäußerten Ansichten und Meinungen basieren auf unserer unvoreingenommenen Sicht auf das/die betrachtete(n) Produkt(e).