Scaled Sysbench ist der letzte Leistungstest des in HCI konfigurierten All-Flash-EMC ScaleIO VxRack-Knotens. In zwei Schichten, wir drückte das System auf 99.2 % Kapazität und sah einen phänomenalen Durchsatz mit den vier Dell-Servern, die als Lastgeneratoren fungierten. Dieses Mal führen wir die gleichen Tests durch, um zu sehen, was passiert, wobei Rechenleistung und Speicher zusammen im 2U-Gehäuse untergebracht sind. Wir gehen davon aus, dass eine höhere Belastung der CPUs der begrenzende Faktor ist, da das System mehr Arbeit zu leisten hat, aber bisher hat sich ScaleIO bei den HCI-Tests als äußerst effizient und aus Overhead-Perspektive leichtgewichtig erwiesen; etwas, das bei anderen HCI-Lösungen im Allgemeinen umgekehrt ist.
Scaled Sysbench ist der letzte Leistungstest des in HCI konfigurierten All-Flash-EMC ScaleIO VxRack-Knotens. In zwei Schichten, wir drückte das System auf 99.2 % Kapazität und sah einen phänomenalen Durchsatz mit den vier Dell-Servern, die als Lastgeneratoren fungierten. Dieses Mal führen wir die gleichen Tests durch, um zu sehen, was passiert, wobei Rechenleistung und Speicher zusammen im 2U-Gehäuse untergebracht sind. Wir gehen davon aus, dass eine höhere Belastung der CPUs der begrenzende Faktor ist, da das System mehr Arbeit zu leisten hat, aber bisher hat sich ScaleIO bei den HCI-Tests als äußerst effizient und aus Overhead-Perspektive leichtgewichtig erwiesen; etwas, das bei anderen HCI-Lösungen im Allgemeinen umgekehrt ist.
Spezifikationen des VCE VxRack-Knotens (Performance Compute All Flash PF100).
- Gehäuse – Anzahl der Knoten: 2U-4 Knoten
- Prozessoren pro Knoten: Dual Intel E5-2680 V3, 12c, 2.5 GHz
- Chipsatz: Intel 610
- DDR4-Speicher pro Knoten: 512 GB (16 x 32 GB)
- Eingebettete Netzwerkkarte pro Knoten: Zwei 1-Gbit/s-Ethernet-Ports + 1 10/100-Verwaltungsport
- RAID-Controller pro Knoten: 1x LSI 3008
- SSDs pro Knoten: 4.8 TB (6 x 2.5 Zoll 800 GB eMLC)
- SATADOM pro Knoten: 32 GBSLC
- 10-GbE-Port pro Knoten: 4x 10-Gbit/s-Ports SFP+
- Stromversorgung: Duales 1600-W-Platin-Wechselstromnetzteil
- Router: Cisco Nexus C3164Q-40GE
Sysbench-Leistung
Wir haben bei unserem VxRack-Knoten-HCI-Test die gleiche Konfiguration angewendet wie bei der zweischichtigen Konfiguration, mit der Ausnahme, wo die VMs betrieben wurden. In unserem zweischichtigen System haben wir den Speicher auf dem VxRack-Knoten gehostet, die Rechenleistung wurde jedoch über vier bis acht Dell PowerEdge R730 13G-Server bereitgestellt. In dieser Test-Iteration führten die VxRack-Knoten selbst die Arbeitslasten aus. Unabhängig davon, wie schnell ScaleIO ist, werden wir an einem bestimmten Punkt einen Kompromiss zwischen zwei Schichten und HCI feststellen, bei dem uns aufgrund des zusätzlichen Gewichts der Rechen-VMs in der HCI-Konfiguration und einer CPU-Diskrepanz die CPU-Zyklen ausgehen. Im HCI-Fall haben wir acht Intel E5-2680 v3-CPUs. In der zweischichtigen Konfiguration haben wir am oberen Ende auf acht Server skaliert, auf denen sechzehn Intel E5-2690 v3-CPUs laufen. Dies entspricht einer Diskrepanz von 240 GHz gegenüber 499.2 GHz bei maximaler Arbeitslast als Referenz.
Sysbench-Testkonfiguration (pro VM)
- CentOS 6.3 64-Bit
- Speicherbedarf: 1 TB, 800 GB genutzt
- Percona XtraDB 5.5.30-rel30.1
- Datenbanktabellen: 100
- Datenbankgröße: 10,000,000
- Datenbankthreads: 32
- RAM-Puffer: 24 GB
- Testdauer: 3 Stunden
- 2 Stunden Vorkonditionierung von 32 Threads
- 1 Stunde 32 Threads
Wir vergleichen den EMC VxRack-Knoten in HCI mit dem EMC VxRack-Knoten in zwei Schichten und bezeichnen die Ergebnisse als HCI bzw. 2L. Bei 4 VMs lieferte uns der HCI 5,664.9 TPS im Vergleich zu 2 TPS beim 3,979.4L. Während wir weiter skalierten, blieb die HCI der 2L voraus, bis wir 24 VMs erreichten; Hier gab uns der HCI 12,817.3 TPS, während der 2L uns 13,858.3 TPS gab. Während die HCI-Konfiguration ihre Gesamtleistung immer noch leicht steigerte, ließ die Leistung nach 20 VMs nach und nach 32 VMs begann die Leistung zu sinken. Dies war ein Zeichen dafür, dass die CPUs ihren Wendepunkt erreichten.
Betrachtet man die Speicherauswirkungen über die ScaleIO-GUI bei 32 laufenden VMs, sehen wir etwa 2.6 GB/s Datenverkehr und etwas über 143 IOPs auf Systemebene.
Die skalierte durchschnittliche Latenz ergibt ein etwas ähnliches Bild, wobei der HCI zunächst eine geringere Latenz aufweist als der 2L. Bei 4 VMs hatte die HCI eine Latenz von nur 22.6 ms im Vergleich zu 2 ms bei der 32.16L. Als wir die Skalierung vergrößerten, sahen wir langsam, dass sich das Blatt wendete, da die 2L-Lösungen ab 24 VMs eine geringere Latenz haben. Dennoch hatte die HCI bei 32 VMs nur eine durchschnittliche Latenz von 78.4 ms.
Wir verlagern unseren Fokus auf Spitzenlatenzprofile mit der Latenz des 99. Perzentils. Hier begann der HCI mit einer geringeren Latenz (45.33 ms bei 4 VMs) und verlor erneut seinen Spitzenplatz an den 2L bei 24 VMs. Als wir jedoch 32 VMs erreichten, hatte die HCI eine Latenz von 179.26 ms und übertraf damit die 2L mit 197.01 ms.
Fazit
Auch bei diesem Test schnitt der EMC VxRack-Knoten hervorragend ab. Obwohl wir bei der HCI-Konfiguration mit einem gewissen Verwaltungsaufwand rechnen würden, konnten wir eigentlich überhaupt keine negativen Auswirkungen feststellen. Tatsächlich übertrifft die HCI-Konfiguration die zweischichtige Konfiguration bis zu einem Punkt, an dem die CPU zum limitierenden Faktor wird. Dies spiegelt sich auch in unserem aktuellen Artikel über SQL Server-Tests wider, die auf HCI ausgeführt werden, wo es zweischichtige Tests mit geringeren Latenzmetriken übertraf. In jedem Fall war die Leistung jedoch hervorragend und bewies einmal mehr, dass ScaleIO in Bezug auf Leistung und Flexibilität die führende softwaredefinierte Lösung auf dem Markt ist.
Wenn man sich die Details ansieht, hatte ScaleIO keine Probleme, den Overhead des SDS-Workers auszugleichen, der auf demselben System wie die MySQL-Workloads arbeitet. Mit einer niedrigeren Taktrate der Plattform im Vergleich zu unseren zweischichtigen Tests (2.5 GHz vs. 2.6 GHz) sahen wir eine verbesserte Latenz und eine höhere Transaktionsleistung in einer HCI-Umgebung, wobei die Arbeitslasten näher am Speicher selbst liegen. Obwohl dies auf den ersten Blick intuitiv erscheinen mag, haben wir noch nie erlebt, dass dies bei anderen HCI-Umgebungen funktioniert, da diese schon immer langsamer waren als ein externes Speicherarray, das an dedizierte Rechenserver angeschlossen ist. Der Bruchpunkt trat ein, als unsere Sysbench-Worker alle verfügbaren CPU-Ressourcen im Cluster verbrauchten und ihren Vorteil bei 20 laufenden VMs im Vergleich zur Zweischicht verloren.
Das Interessante daran ist jedoch, dass noch Speicher-IOs ungenutzt blieben, die immer noch außerhalb des ScaleIO-HCI-Clusters dargestellt werden können. Dies bedeutet, dass Sie zusätzlich zur HCI-Last auch gleichzeitig Speicher im Zweischichtmodus teilen können. Dies ist von grundlegender Bedeutung für das Wertversprechen von ScaleIO, das es einer Organisation ermöglicht, das System an ihre Bedürfnisse anzupassen. So flexibel und effizient es auch ist, ScaleIO zeigte wirklich nie eine Schwäche, außer dass ihm die Kapazität oder die verfügbaren CPU-Zyklen auf den Hosts selbst ausgingen.
EMC VxRack Node Review: Übersicht
EMC VxRack-Knoten mit ScaleIO: Scaled Sysbench OLTP-Leistungsüberprüfung (2-schichtig)
EMC VxRack-Knoten mit ScaleIO: SQL Server-Leistungsüberprüfung (2-schichtig)
EMC VxRack-Knoten mit ScaleIO: Synthetische Leistungsüberprüfung (2-lagig)
EMC VxRack Node Powered By ScaleIO Review: Synthetic Performance Review (HCI)
EMC VxRack-Knoten mit ScaleIO: SQL Server Performance Review (HCI)
EMC VxRack-Knoten mit ScaleIO: VMmark Performance Review (HCI)
Besprechen Sie diese Rezension
Melden Sie sich für den StorageReview-Newsletter an