Startseite Unternehmen VMware VSAN 6.2 All-Flash-Rezension

VMware VSAN 6.2 All-Flash-Rezension

by StorageReview Enterprise Lab

Letztes Jahr veröffentlichten wir a ausführliche Rezensionsreihe zu VSAN 6.0 in einer Hybridkonfiguration. Im Februar dieses Jahres VMware hat VSAN 6.2 eingeführt, das Datenreduzierung durch Deduplizierung und Komprimierung sowie eine Reihe anderer Funktionen auf den Markt brachte. Die Datenreduzierung ist für VSAN ein großer Fortschritt, da das Unternehmen von der massiven Zunahme der Flash-Einführung profitiert, was zum großen Teil auf sinkende Preise und hochwertige Optionen zurückzuführen ist. Wenn VSAN in einer All-Flash-Konfiguration aktiviert ist, können Benutzer, die die Vorteile der Datenreduzierung nutzen, ihre Kapazität je nach Arbeitslast effektiv verdreifachen (oder mehr), was den Wert von Flash wirklich für alle, vom ROBO bis zum Unternehmen, erhöht. 


Letztes Jahr veröffentlichten wir a ausführliche Rezensionsreihe zu VSAN 6.0 in einer Hybridkonfiguration. Im Februar dieses Jahres VMware hat VSAN 6.2 eingeführt, das Datenreduzierung durch Deduplizierung und Komprimierung sowie eine Reihe anderer Funktionen auf den Markt brachte. Die Datenreduzierung ist für VSAN ein großer Fortschritt, da das Unternehmen von der massiven Zunahme der Flash-Einführung profitiert, was zum großen Teil auf sinkende Preise und hochwertige Optionen zurückzuführen ist. Wenn VSAN in einer All-Flash-Konfiguration aktiviert ist, können Benutzer, die die Vorteile der Datenreduzierung nutzen, ihre Kapazität je nach Arbeitslast effektiv verdreifachen (oder mehr), was den Wert von Flash wirklich für alle, vom ROBO bis zum Unternehmen, erhöht. 

Während wir unsere Überprüfung von VSAN fortsetzen, haben wir denselben Dell PowerEdge R730xd-Cluster genutzt, den wir im vorherigen Hybrid-Test verwendet haben. Wir haben Updates an der Plattform vorgenommen, einschließlich BIOS, Firmware und ESXi, um sie mit VSAN 6.2 kompatibel zu machen. Eine der größten Änderungen ist jedoch der Ersatz unserer vorhandenen Festplatten und SSDs durch eine neue All-Flash-Konfiguration mit freundlicher Genehmigung von Toshiba. Durch den Einsatz einiger der schnellsten SAS3-SSDs auf dem Markt können wir unsere ganze Aufmerksamkeit auf das VSAN selbst richten, ohne dass die Hardware es behindert.

Dell PowerEdge R730xd VMware All-Flash VSAN-Spezifikationen

  • Dell PowerEdge R730xd Server (x4)
  • CPUs: Acht Intel Xeon E5-2697 v3 2.6 GHz (14C/28T)
  • Speicher: 64 x 16 GB DDR4 RDIMM
  • SSD:
    • Cache: 16 x 400 GB Toshiba PX04 schreibintensives SAS3
    • Kapazität: 80 x 960 GB Toshiba PX04 Read-Intensive SAS3
  • Netzwerk: 4 x Intel X520 DP 10 Gbit DA/SFP+, + I350 DP 1 Gbit Ethernet
  • Speicherkapazität: 69.86TB

Die für diesen Test verwendeten Toshiba-Laufwerke waren Toshiba PX04S-Modelle. In unserem vorherigen Test haben wir festgestellt, dass die PX04S-Modelle die schnellsten SAS-Enterprise-SSDs waren, die wir bisher getestet haben. Die PX04S war bei unserem Test auch die Dual-Port-SAS-SSD mit der höchsten Kapazität. Die PX04S-Serie ist in mehreren Ausdauerstufen erhältlich, von „High Endurance“ bis „Low Endurance“ mit Modellen mittlerer und preiswerter Dauerhaftigkeit. Für diesen Test haben wir den Dell PowerEdge R730xd mit sechzehn schreibintensiven 400-GB-Laufwerken (PX04SHB040) und achtzig preiswerten 960-GB-Festplatten (PX04SVB096) ausgestattet. Die schreibintensiven Laufwerke erreichen bis zu 25 DWPD und die Value-Endurance-Laufwerke bis zu 3 DWPD. Im Vergleich dazu bestand die Cache-Ebene in der Hybridkonfiguration mit denselben Servern aus vier Toshiba PX02 800-GB-SSDs pro Host, was die doppelte Kapazität der Cache-Ebene ergibt.

Technische Daten des schreibintensiven 04-GB-Laufwerks PX040SHB400:

  • Kennzahlen
    • Kontinuierliches sequentielles Lesen von 64 KiB: 1,900 MiB/s
    • Kontinuierliches sequentielles Schreiben von 64 KiB: 850 MiB/s
    • Dauerhafter zufälliger Lesevorgang von 4 KiB: 270 IOPS
    • Dauerhaftes zufälliges Schreiben von 4 KiB: 125 IOPS
  • DWPD: 25

Technische Daten des PX04SVB096 960-GB-Value-Endurance-Laufwerks:

  • Kennzahlen
    • Kontinuierliches sequentielles Lesen von 64 KiB: 1,900 MiB/s
    • Kontinuierliches sequentielles Schreiben von 64 KiB: 850 MiB/s
    • Dauerhafter zufälliger Lesevorgang von 4 KiB: 270 IOPS
    • Dauerhaftes zufälliges Schreiben von 4 KiB: 60 IOPS
  • DWPD: 3

Analyse der Anwendungsauslastung

Für diesen Test haben wir das Dell PowerEdge R730xd VMware VSAN mit allen Toshiba PX04 SAS3 SSDs neu bestückt. Die ersten Benchmarks bestehen aus dem MySQL OLTP-Leistung über SysBench und Microsoft SQL Server OLTP-Leistung mit einer simulierten TPC-C-Arbeitslast.

Jede SQL Server-VM ist mit zwei vDisks konfiguriert, einer 100 GB für den Start und einer 500 GB für die Datenbank und Protokolldateien. Aus Sicht der Systemressourcen haben wir jede VM mit 16 vCPUs und 64 GB DRAM konfiguriert und den LSI Logic SAS SCSI-Controller genutzt. Mit diesen Tests soll die Leistung einer latenzempfindlichen Anwendung auf dem Cluster bei mäßiger, aber nicht überwältigender Rechen- und Speicherlast überwacht werden.

SQL Server-Testkonfiguration (pro VM)

  • Windows Server 2012 R2
  • Speicherbedarf: 600 GB zugewiesen, 500 GB genutzt
  • SQL Server 2014
    • Datenbankgröße: Maßstab 1,500
    • Virtuelle Client-Auslastung: 15,000
    • RAM-Puffer: 48 GB
  • Testdauer: 3 Stunden
    • 2.5 Stunden Vorkonditionierung
    • 30-minütiger Probezeitraum

Im SQL Server TPC-C-Test auf hyperkonvergenten Plattformen untersuchen wir die Arbeitslastverteilung im gesamten Cluster im Hybridmodus, All-Flash-Modus (AF) und All-Flash-Datenreduzierung (AF DR). Die AF-Version bot eine etwas bessere Leistung als die Hybridversion, wobei einzelne VMs zwischen 3,112.4 TPS und 3,130.4 TPS liefen, mit einem Gesamtwert von 12,472.8 TPS, dem höchsten Gesamtwert. Die DR-Konfiguration lag am unteren Ende der Testkonfigurationen, wobei einzelne VMs zwischen 2,982.1 TPS und 3,009.6 TPS liefen, mit einem Gesamtwert von 11,969.1 TPS.

Beim SQL Server TPC-C-Test ist die Variable, auf die wir am meisten achten, die durchschnittliche Latenz. Kleine Lücken in der Transaktionsleistung zeigen nicht das ganze Bild. In unserem durchschnittlichen Latenztest stellten wir fest, dass der höchste Wert der AF-Version, 64 ms, mit dem schlechtesten Wert des Hybrids übereinstimmte. Der AF hatte ebenfalls einen durchschnittlichen Wert von 53 ms. Auch hier lag die DR-Konfiguration mit einem Tiefstwert von 236 ms, einem Höchstwert von 278 ms und einem Durchschnitt von 261 ms am Schlusslicht.

Sysbench-Leistung

Jede Sysbench-VM ist mit drei vDisks konfiguriert: eine für den Start (~92 GB), eine mit der vorgefertigten Datenbank (~447 GB) und die dritte für die zu testende Datenbank (400 GB). Aus Sicht der Systemressourcen haben wir jede VM mit 16 vCPUs und 64 GB DRAM konfiguriert und den LSI Logic SAS SCSI-Controller genutzt.

Sysbench-Testkonfiguration (pro VM)

  • CentOS 6.3 64-Bit
  • Speicherbedarf: 1 TB, 800 GB genutzt
  • Percona XtraDB 5.5.30-rel30.1
    • Datenbanktabellen: 100
    • Datenbankgröße: 10,000,000
    • Datenbankthreads: 32
    • RAM-Puffer: 24 GB
  • Testdauer: 12 Stunden
    • 6 Stunden Vorkonditionierung von 32 Threads
    • 1 Stunde 32 Threads
    • 1 Stunde 16 Threads
    • 1 Stunde 8 Threads
    • 1 Stunde 4 Threads
    • 1 Stunde 2 Threads

Mit dem Sysbench OLTP betrachten wir jeweils die 8VM-Konfiguration. Der AF setzte sich leicht durch und überholte den Hybrid mit 4,273 TPS auf 4,259 TPS. Die DR-Konfiguration erzielte 3,625 TPS. 

Betrachtet man die durchschnittliche Latenz, ist es etwas überraschend, dass der AF nicht wesentlich höher war als beim Hybrid, nämlich 60.1 ms bzw. 60.3 ms. Der DR erzielte mit einer Latenz von 71 ms deutlich bessere Ergebnisse. 

Die durchschnittliche Latenz des 99. Perzentils zeigte erneut einen leichten Rückgang der Latenz für den AF im Vergleich zum Hybrid, jeweils 126 ms bis 131 ms. Der DR hatte mit 212 ms eine viel höhere Latenz.

VMmark-Leistungsanalyse

Wie bei allen unseren Anwendungsleistungsanalysen versuchen wir zu zeigen, wie Produkte in einer Live-Produktionsumgebung im Vergleich zu den Leistungsansprüchen des Unternehmens funktionieren. Wir wissen, wie wichtig es ist, Speicher als Komponente größerer Systeme zu bewerten, vor allem wie reaktionsfähig der Speicher bei der Interaktion mit wichtigen Unternehmensanwendungen ist. In diesem Test verwenden wir die VMmark Virtualisierungs-Benchmark von VMware in einer Multi-Server-Umgebung.

Aufgrund seines Designs ist VMmark ein äußerst ressourcenintensiver Benchmark mit einer breiten Mischung aus VM-basierten Anwendungs-Workloads, die Speicher-, Netzwerk- und Rechenaktivität beanspruchen. Wenn es darum geht, die Virtualisierungsleistung zu testen, gibt es fast keinen besseren Benchmark, da VMmark so viele Facetten berücksichtigt, darunter Speicher-I/O, CPU und sogar Netzwerkleistung in VMware-Umgebungen. 

Hier sehen wir uns die Aufschlüsselung der Gesamt- und Anwendungsleistung von VMmark in unseren Hybrid- und All-Flash-VSAN-Konfigurationen mit Datenreduzierung an.

Mit einer Kapazität von 18 Kacheln mit aktivierter Komprimierung und Deduplizierung ist VSAN das leistungsstärkste Speichersystem mit Datenreduzierung, das wir bisher getestet haben. In früheren Benchmarks erreichten wir mit einer dedizierten Dedup-Appliance vor einem All-Flash-Array die Höchstzahl von 8 Kacheln.

Betrachtet man die CPU-Ressourcen auf einem der Hosts während dieses All-Flash-VSAN-Laufs mit 18 Kacheln, schwankte die CPU-Auslastung des Systems bei etwa 80–85 %. Auch wenn der Speicheraspekt nicht weiter gesteigert werden konnte, waren im Cluster immer noch einige Ressourcen übrig.

HCIbench-Testkonfiguration

  • 16 VMs
  • 10 VMDK pro VM
    • 10 GB VMDK (1.6 TB Platzbedarf)
    • 50 GB VMDK (8 TB Platzbedarf)
    • 100 GB VMDK (16 TB Platzbedarf)
  • Vollständige Schreibspeicherinitialisierung
  • 1.5-stündige Testintervalle (30 Minuten Vorkonditionierung, 60 Minuten Testprobenzeitraum)

Zum Testen der Hybrid- und AF-DR-Konfigurationen unseres VMware VSAN haben wir zwei verschiedene Konfigurationen für unsere Workload-Profile bereitgestellt. Dazu gehörten ein Platzbedarf von 1.6 TB (vollständig im Cache für den Hybrid), 800 GB (vollständig im Cache für den AF DR) und 16 TB (außerhalb des Caches verschüttet), um zu zeigen, wie die Plattform reagiert, wenn heiße Daten wachsen. Diese Größen können für jede Plattform angepasst werden, je nachdem, wie viel Flash für Cache oder Tiering bereitgestellt wird.

HCIbench-Workload-Profile von StorageReview

Der erste HCIbench-Test untersucht den zufälligen Spitzendurchsatz der VMware VSAN-Plattform mit einem vollständig zufälligen 4K-Workload-Profil. Vollständig aufgewärmt und mit in den Cache verschobenen Daten lieferte uns der Hybrid 888 MB/s Lese- und 249 MB/s Schreibgeschwindigkeit bei einem Platzbedarf von 1.6 TB im Cache. Der AF DR mit einem Cache-Speicher von 800 GB ermöglichte uns 1,414 MB/s beim Lesen und 160 MB/s beim Schreiben. Bei einem Datensatz von bis zu 16 TB (außerhalb des Caches) lieferte uns der Hybrid 26 MB/s beim Lesen und 56 MB/s beim Schreiben, während der AF DR eine nicht überraschend stärkere Leistung von 423 MB/s beim Lesen und 151 MB/s beim Schreiben aufwies. 

Als Nächstes schauen wir uns die I/O-Spitzenwerte im gleichen 4K-Profil an und sehen hier ähnliche Ergebnisse. Für den 1.6-TB-Datensatz im Cache zeigte der Hybrid Ergebnisse von 227,342 IOPS beim Lesen und 63,868 IOPS beim Schreiben, während der 800-GB-Datensatz für den AF DR im Cache Ergebnisse von 361,923 IOPS beim Lesen und 41,031 IOPS beim Schreiben aufwies. Beim 16-TB-Datensatz lieferte uns der Hybrid 6,747 IOPS beim Lesen und 14,404 IOPS beim Schreiben, und der AF DR hatte 108,365 IOPS beim Lesen und 38,778 IOPS beim Schreiben.

Die nächste Metrik befasst sich mit der durchschnittlichen Latenz des vollständig zufälligen 4K-Workload-Profils. Der 1.6-TB-Speicherplatz im Cache für den Hybrid hatte eine Leselatenz von 1 ms und eine Schreiblatenz von 4 ms. Der 800-GB-Speicherplatz im Cache für den AF DR hatte eine Leselatenz von 0.88 ms und eine Schreiblatenz von 8.29 ms. Wenn der 16-TB-Datensatz aus dem Cache verschüttet wird, wird es offensichtlich eine viel größere Diskrepanz in den Ergebnissen geben, da der Hybrid auf rotierende 10-KByte-Festplatten überläuft, die immer eine höhere Latenz haben, im Vergleich zum AF DR, der auf Flash-Laufwerken verbleibt. Hier lieferte uns der Hybrid Latenzen von 47 ms beim Lesen und 23 ms beim Schreiben, während der AF DR uns Latenzen von 1.65 ms beim Lesen und 4.66 ms beim Schreiben ermöglichte.

Unser nächster Test befasst sich mit einem größeren 8K-Datenprofil mit einer Mischung aus 70 % Lese- und 30 % Schreibaktivität. Hier erreichte der Hybrid-Cache (mit einer Stellfläche von 1.6 TB) 947.9 MB/s. Der AF DR im Cache (mit 800 GB) hatte eine Leistung von 631.5 MB/s. Da der größere 16-TB-Datensatz aus dem Cache auslief, sank die Leistung des Hybrids auf 67 MB/s, während beim AF DR ein Rückgang auf 530 MB/s zu verzeichnen war.

Als Nächstes betrachten wir die E/A-Leistung derselben 8K-70/30-Workload. Der Hybrid-Footprint mit 1.6 TB verzeichnete 121,329 IOPS, während der AF DR 80,834 IOPS aufzeichnete. Sobald der 16-TB-Datensatz den Cache verließ, kam es bei beiden Konfigurationen zu einem Leistungsabfall, wobei der Hybrid nun 8,584 IOPS aufzeichnete und der AF DR 67,882 IOPS aufzeichnete.

Betrachtet man die durchschnittliche Latenz von 8k 70/30, sahen wir eine ähnliche Platzierung wie oben. Im Cache hatte der Hybrid eine Latenz von 2 ms und der AF DR hatte eine Latenz von 3.94 ms. Da der große Datensatz den Cache verließ, stieg die Hybridgeschwindigkeit auf 37 ms, während die AF DR tatsächlich auf 2.63 ms sank.

Die letzte Arbeitslast wechselt zu einem Spitzenbandbreitenfokus, der aus einem sequentiellen Lese- und Schreibprofil von 32 KB besteht. Die In-Cache-Leistung des Hybrids zeigte 2,699 MB/s beim Lesen und 1,193 MB/s, und die In-Cache-Leistung des AF DR zeigte 1,971 MB/s beim Lesen und 1,353 MB/s beim Schreiben. Beim größeren 16-TB-Datensatz verzeichneten wir 2,490 MB/s beim Lesen und 1,082 MB/s beim Schreiben mit dem Hybrid und 975 MB/s beim Lesen und 495 MB/s beim Schreiben mit dem AF DR.

Die E/A-Leistung zeigte ähnliche Ergebnisse, wobei der Hybrid größtenteils eine bessere Leistung lieferte als der AF DR. Im Cache erreichte der Hybrid eine Leistung von 86,379 IOPS beim Lesen und 38,184 IOPS beim Schreiben, während der AF DR eine Leistung von 63,068 IOPS beim Lesen und 43,302 IOPS beim Schreiben hatte. Da der größere Datensatz nicht im Cache war, sahen wir, dass der Hybrid 79,703 IOPS beim Lesen und 34,611 IOPS beim Schreiben hatte, während der AF DR 31,205 IOPS beim Lesen und 15,830 IOPS beim Schreiben hatte.

Bei durchschnittlicher Latenz lieferte uns der Hybrid 3 ms Lese- und 8 ms Schreibzeit im Cache sowie 4 ms Lese- und 9 ms Schreibzeit aus dem Cache. Der AF DR hingegen bescherte uns 5.29 ms Lese- und 7.46 ms Schreibzeit im Cache sowie 5.78 ms und 11.47 ms Schreibzeit aus dem Cache.

Fazit

VMware VSAN 6.2 bietet Unternehmen die Möglichkeit, Flash auf neue und aufregende Weise zu nutzen und so sowohl Effizienz- als auch Leistungssteigerungen zu erzielen. Zu den Highlights der neuen Version gehören Erasure Coding, RAID5-Unterstützung, Deduplizierung und Komprimierung, die allesamt eindeutig dazu führen, dass Flash aus Kapazitätssicht optimal genutzt werden kann. Während die Vorteile der Datenreduzierung je nach Arbeitslast und Konfiguration variieren, kann man durchaus mit einem drei- bis sechsfachen Kapazitätsgewinn rechnen. Das bedeutet im Grunde, dass ein relativ erschwingliches 3-TB-Laufwerk effektiv 6-1 TB liefern kann. Allein dieser Vorteil macht 3 zu einem lohnenswerten Upgrade und gibt Flash eine hervorragende Plattform, um sich hervorzutun. 

Wenn es um die Leistung geht, muss die All-Flash-Konfiguration ein wenig nuanciert werden, um sie richtig zu erklären. VSAN 6.2 liefert im Vergleich zur zuvor getesteten Hybridkonfiguration keine exponentiellen Zuwächse. Dafür gibt es einige grundlegende Gründe. Zunächst einmal verfügt VSAN über einen Single-Thread pro Festplattengruppe, was seine Fähigkeit einschränkt, alle Flash-Laufwerke so effektiv wie möglich zu nutzen. Dies ist eine Entwurfsentscheidung, da der Schwerpunkt von VMware auf der Minimierung des VSAN-Overheads auf Systemebene liegt. Dies könnte der Bereich sein, in dem sich VMware für eine Neuausrichtung in zukünftigen Versionen entscheidet. Zweitens sehen wir bei der Aktivierung von Datenreduzierungsfunktionen eine geringere Leistung bei der All-Flash-Konfiguration als bei der Hybridkonfiguration. Oberflächlich betrachtet mag dies wie ein Problem aussehen, aber für jeden, der Erfahrung mit der Datenreduzierung hat, gibt es in jedem Fall, den wir gesehen haben, einen massiven Leistungsverlust. Oft haben wir bei HCI-Lösungen der Konkurrenz einen Overhead-Einbruch von über 80 % erlebt. Dieser Kontext ist wichtig; Da VSAN All-Flash mit aktivierter Datenreduzierung in dieser Hinsicht tatsächlich sehr gute Arbeit leistete und den 18-Kacheln-VMmark-Score erreichte, den unsere ältere Hybridkonfiguration erreichen konnte. Darüber hinaus gibt VMware an, dass die meisten Kunden, die All-Flash-Konfigurationen kaufen, mit aktivierten Datenreduzierungsfunktionen laufen, weshalb die VSAN-Effizienz sehr wichtig ist.

Derzeit ist die Datenreduzierung eine Alles-oder-Nichts-Einstellung, die sich auf den gesamten Datenspeicher bezieht. VMware tut dies, um die Effektivität der Deduplizierung zu maximieren. Der Datenreduzierung der Serverressourcen steht die Kapazitätserweiterung gegenüber, die in diesem Fall ein entscheidendes Verkaufsargument darstellt. In unserer Konfiguration mit vier Knoten und 24 Laufwerken pro Server (was bei VSAN sehr üblich ist) bedeutet das, dass kleinere/weniger SSDs verwendet werden können, um die Festplattenkapazität zu erreichen oder zu überschreiten. Dies gilt natürlich zusätzlich zu allen anderen Vorteilen, die SSDs bieten, wie z. B. geringerer Stromverbrauch, geringerer Kühlbedarf oder größere Betriebstoleranzen.

Zum Testen haben wir eine Reihe von Anwendungstests durchgeführt, darunter unsere MySQL- und Microsoft SQL Server-OLTP-Leistung sowie den VMmark-Virtualisierungs-Benchmark von VMware und HCIbench. Bei SQL Server war die All-Flash-Version mit einem Gesamtwert von 12,472.8 TPS der Spitzenreiter. Auch das All-Flash (AF) mit Datenreduktion (AF DR) schnitt mit einem Gesamtscore von 11,969.1 TPS gut ab. Bei der SQL Server-Latenz hatte das AF VSAN mit einem Gesamtwert von 53 ms die niedrigste Gesamtlatenz, etwa 30 % weniger als die Hybridversion. Es überrascht nicht, dass AF DR VSAN mit insgesamt 261 ms eine viel höhere Latenz aufwies. Bei unserem SysBench-Test ist es interessant festzustellen, dass der AF nur um Haaresbreite besser abschneidet als die Hybridversion (4,273 bis 4,259 TPS, skalierte durchschnittliche Latenz von 60.1 ms bis 60.3 ms und Latenz im ungünstigsten Fall von 126 ms bis 131 ms). Bei aktivierter Datenreduzierung kam es bei AF DR VSAN zu einem Leistungsabfall, es wurden aber immer noch 3,625 skalierte Transaktionen pro Sekunde, eine skalierte durchschnittliche Latenz von 71 ms und eine Latenz im ungünstigsten Fall von 212 ms erzielt.

Mit VMmark und aktivierter Datenreduktion konnte AF DR VSAN 18 Kacheln erreichen (das bisher beste Datenreduktionssystem erreichte nur 8 Kacheln). Damit ist das AF DR VSAN das leistungsstärkste Speicherarray mit Datenreduzierung in unserem VMmark-Test. Der letzte Test, den wir uns angesehen haben, war HCIbench, der zwar nicht die maximale Leistungsfähigkeit eines Systems zeigt, uns aber eine gute Messgröße für den Vergleich des AF DR VSAN mit dem Hybrid-VSAN liefert. In unserem 4K-HCIbench-Test übertraf der AF DR VSAN die Hybridversion sowohl beim In-Cache-Test als auch beim Spilling-Out-of-Cache-Test, insbesondere bei Lesevorgängen. Der AF DR konnte 4K-Lesezahlen von bis zu 1,1414 MB/s, 361,923 IOPS und eine durchschnittliche Latenz von 0.9 ms erreichen. Bei unseren 8K-70/30-Tests schnitt der Hybrid im Cache besser ab, und der AF DR schnitt deutlich besser ab, sobald er den Cache verließ. In unseren sequenziellen 32-KB-Tests schnitt das Hybrid-VSAN sowohl innerhalb als auch außerhalb des Caches besser ab als das AF DR VSAN.

Wir haben in diesem Test viele Vergleiche zwischen unserer anfänglichen Hybrid-VSAN-Konfiguration und einer All-Flash-Bereitstellung angestellt. Der Hybrid hat sich in den ersten Tests gut behauptet und zeigt auch heute noch Stärke. Wenn die Cache-Ebenen in einer Hybridkonfiguration gleich sind und alle Flash-Konfigurationen und Arbeitssätze im Cache verbleiben, ist die Leistung beider relativ ähnlich. Die All-Flash-Konfiguration profitiert jedoch zusätzlich zu den allgemeinen Vorteilen, die Flash bietet, von allen neuen Funktionen in 6.2. Darüber hinaus kann der Preisdruck bei SSDs in Kombination mit der Datenreduzierung sogar dazu führen, dass All-Flash-VSAN pro TB kosteneffizienter ist als Hybrid-VSAN. 

Vorteile

  • Die leistungsstärkste Plattform mit Datenreduzierung, die wir bisher getestet haben
  • VSAN 6.2 bietet eine Reihe neuer Funktionen, die die Vorteile von Flash nutzen
  • Sehr einfach einzurichten; komfortabel für Virtualisierungsadministratoren zu verwalten

Nachteile

  • VSAN trennt Laufwerke für Cache- und Kapazitätsebenen; Eine Single-Layer-Architektur für Flash könnte wertvoll sein
  • Single-Threaded-Festplattengruppen innerhalb von VSAN begrenzen das Leistungspotenzial

Fazit

VMware VSAN 6.2 erweitert die Plattform um eine Reihe von Dateneffizienzfunktionen, sodass alle Flash-VSAN-Bereitstellungen eine überzeugende Mischung aus Funktionen, Leistung und Kapazität bieten und gleichzeitig von allen peripheren Vorteilen profitieren können, die Flash mit sich bringt.

VMware VSAN-Produktseite

Besprechen Sie diese Rezension

Melden Sie sich für den StorageReview-Newsletter an