GIGABYTE, ein angesehener Hersteller computerbezogener Hardwarekomponenten und -systeme, ist durch die Partnerschaft mit Bigtera in den Datenspeichermarkt eingestiegen, um eine einzigartige, leistungsstarke, softwaredefinierte Speicherlösung anzubieten. GIGABYTE liefert die Hardware und bietet in Kombination mit der VirtualStor-Softwareplattform von Bigtera eine Reihe von Speichergeräten für unterschiedliche Kapazitäts- und Leistungsanforderungen. Während die meisten Menschen mit GIGABYTE vertraut sein werden (das Unternehmen ist seit über 30 Jahren im Geschäft), könnte Bigtera für einige ein neuer Name sein. Bigtera wurde 2012 gegründet und verfügt über zwei Entwicklungszentren und über hundert Kunden, die VirtualStor in Produktionsumgebungen ausführen.
GIGABYTE, ein angesehener Hersteller computerbezogener Hardwarekomponenten und -systeme, ist durch die Partnerschaft mit Bigtera in den Datenspeichermarkt eingestiegen, um eine einzigartige, leistungsstarke, softwaredefinierte Speicherlösung anzubieten. GIGABYTE liefert die Hardware und bietet in Kombination mit der VirtualStor-Softwareplattform von Bigtera eine Reihe von Speichergeräten für unterschiedliche Kapazitäts- und Leistungsanforderungen. Während die meisten Menschen mit GIGABYTE vertraut sein werden (das Unternehmen ist seit über 30 Jahren im Geschäft), könnte Bigtera für einige ein neuer Name sein. Bigtera wurde 2012 gegründet und verfügt über zwei Entwicklungszentren und über hundert Kunden, die VirtualStor in Produktionsumgebungen ausführen.
Die Bigtera VirtualStor-Familie besteht aus drei verschiedenen Produktlinien – Scaler, Converger und Extreme – bei denen es sich jeweils um eine softwaredefinierte Speicherlösung handelt, die auf einer Standard-x86-Architektur bereitgestellt wird. Scaler ist ein Datenspeicher für hybride Scale-Out-Lösungen; Converger ist eine Speicherlösung, mit der durch Kombination mit VMware, Hyper-V oder KVM eine hyperkonvergente Infrastruktur erstellt werden kann. und Extreme ist eine All-Flash-Scale-out-Speicherlösung, die entwickelt wurde, um I/O für Anwendungen bereitzustellen, die eine konstant niedrige Latenz erfordern und eine große Menge an Bandbreite verbrauchen. In diesem ausführlichen Tauchgang werden wir die VirtualStor Scaler-Lösung untersuchen.
VirtualStor Scaler ist eine Scale-out-Speicherlösung und keine Scale-up- oder hyperkonvergente Infrastrukturlösung (HCI), was bedeutet, dass einem VirtualStor Scaler-Speichercluster mehr Festplatten oder Knoten hinzugefügt werden können, wenn mehr Speicherkapazität benötigt wird. Mit anderen Worten: Sie erhalten die richtige Speichermenge für Ihr Rechenzentrum, die je nach aktuellen Umständen angepasst werden kann. Diese Flexibilität eliminiert effektiv sowohl die Überbereitstellung von Hardware (eine Voraussetzung für Scale-up-Lösungen) als auch die Notwendigkeit, beim Einsatz einer HCI-Lösung mehr Rechenleistung hinzuzufügen (ob erforderlich oder nicht).
GIGABYTE bietet sechs verschiedene Plattformen für das VirtualStor Scaler-System an. Am einen Ende des Spektrums, optimiert für kleinere Benutzer, befindet sich ein System mit 48 TB nutzbarer Speicherkapazität, das aus drei 1U-Knoten besteht. Auf der anderen Seite gibt es für Kunden, die große Datenmengen verarbeiten müssen, ein System, das 4 PB Daten speichern kann und aus acht 4U-Knoten besteht. Um die Qualität dieser Systeme sicherzustellen, verwendet GIGABYTE eigene Spitzenserver, die mit Dual ausgestattet sind Skalierbare Xeon-CPUs der zweiten Generation von Intel um den Rechenbedarf dieser Speicherknoten zu decken. Zur Datenspeicherung verwenden VirtualStor-Speichergeräte eine Kombination aus Festplatten und NVMe- oder SATA-SSD-Cache-Laufwerken. Um sicherzustellen, dass die Daten weiterhin von der Appliance fließen, verwenden die Knoten Intel SFP+ und NICs, und die Offline-Knotenverwaltung erfolgt mit Aspeed-Fernverwaltungscontrollern.
VirtualStor Scaler-Speicherprotokolle
Heutige Rechenzentren müssen Speicher bereitstellen, um die Anforderungen einer anspruchsvollen und vielfältigen Benutzergruppe so schnell und kosteneffizient wie möglich zu erfüllen. Um den unterschiedlichen Speicheranforderungen eines Rechenzentrums gerecht zu werden, unterstützt VirtualStor alle gängigen Speicherprotokolle (NAS, SAN und Objektspeicher) aus einem einzigen, einheitlichen Speicherpool. Um sicherzustellen, dass die Leistungsanforderungen erfüllt werden, kann der Speicher über QoS-Attribute (Quality of Service) verfügen, die auf Dateien, Ordner oder Volumes angewendet werden. Kontingente, die verhindern, dass ein Benutzer oder eine Anwendung übermäßig viel Speicherplatz beansprucht, können auf Ordner- oder Volume-Basis angewendet werden.
VirtualStor ist darauf ausgelegt, zuverlässig und konsistent die Leistungsanforderungen für die anspruchsvollsten Anwendungen bereitzustellen. Dies ist ihnen unter anderem dadurch gelungen, wie die VirtualStor-Back-End-Speicher-Engine BigteraStore die Platzierung der Daten übernimmt. BigteraStore verwendet Flash-Geräte zum Zwischenspeichern von Daten und zum Konsolidieren und Zusammenführen kleiner Datenblöcke zu größeren sequentiellen Blöcken. Dies wirkt sich nicht nur enorm auf die Leistung eines VirtualStor-Systems bei der Verarbeitung zufälliger Daten aus, sondern erhöht auch die Lebensdauer des Geräts, da weniger Schreibvorgänge auf ein Flash-Gerät erfolgen. BigteraStore verbessert außerdem die Leistung seiner Speichersysteme durch die Identifizierung sequenzieller Daten (die in größeren Datenblöcken bereitgestellt werden) und liest und schreibt diese Daten direkt auf seine Festplatten. Da das Streamen sequenzieller Daten direkt auf eine Festplatte nicht die gleichen Leistungseinbußen erleidet wie das Lesen und Schreiben von Zufallsdaten auf eine Festplatte, wird dadurch auch die Kapazität teurer Flash-Geräte für die Verwendung mit Zufallsdaten dort geschont, wo sie den größten Einfluss hat.
Verwendung von VirtualStor Scaler Flash
Dateneffizienz, Schutz und Ausfallsicherheit sind drei Faktoren, die moderne Speicherlösungen von heute berücksichtigen müssen, und VirtualStor nutzt die neuesten Techniken und Tools, um eine robuste, effiziente Lösung zur Bewältigung dieser Faktoren bereitzustellen.
Das wichtigste Merkmal eines jeden Speichersystems ist die Fähigkeit, die Integrität der darauf gespeicherten Daten zu schützen. Zu diesem Zweck unterstützt VirtualStor Datenreplikation, Erasure Coding, RAID, Fehlererkennung und die Selbstreparatur beschädigter Daten. Da Daten über viele verschiedene Speicherknoten repliziert und verteilt werden, übernimmt im unwahrscheinlichen Fall, dass eine Hardwarekomponente oder ein Server ausfällt, nahtlos ein anderer Speicherknoten, und in den meisten Fällen bemerkt der Benutzer oder die Anwendung nicht einmal, dass ein Fehler aufgetreten ist . Sobald die ausgefallene Komponente identifiziert und ausgetauscht wurde, wird sie automatisch wieder in das System integriert. Sie können sensible Daten, die den größtmöglichen Schutz benötigen, auf einem VirtualStor mithilfe der Intel AES-NI-Verschlüsselungstechnologie sichern, aber natürlich können auch andere, weniger sichere Daten in einem unverschlüsselten Zustand auf dem VirtualStor-Speichergerät belassen werden.
Überblick über die Architektur des VirtualStor Scaler
Ein Faktor, den die meisten Benutzer bei der Entscheidung für eine Speicherlösung oft übersehen, ist die Schwierigkeit, den zugrunde liegenden Speicher für die Verwendung herauszuarbeiten. Die Tatsache, dass der gesamte VirtualStor-Speicher, unabhängig von Typ oder Protokoll, aus einem einzigen Pool stammt, der überprovisioniert werden kann, eliminiert effektiv sowohl die zeitaufwändige Aufgabe der Neubereitstellung des zugrunde liegenden Speichers, um ihn verfügbar zu machen, als auch Inseln oder Silos. Speicherplatz, der bereitgestellt wurde, aber nicht genutzt wird.
VirtualStor Scaler-Dashboard
Der Wert einer Speicherlösung kann minimiert werden, wenn ihre Verwaltbarkeit entweder schwierig oder mangelhaft ist, aber glücklicherweise hat VirtualStor die Verwaltung seines Speichers vereinfacht, indem es eine intuitive, moderne, webbasierte Verwaltungskonsole bietet. In der Vergangenheit haben wir gesehen, dass einige ältere Unified-Storage-Systeme mit einer einzigen Verwaltungskonsole beworben wurden. Bei näherer Betrachtung bestand die Verwaltungskonsole jedoch lediglich aus den Verwaltungskomponenten verschiedener Systeme, die als Funktionen auf einer Verwaltungskonsole platziert waren. Leider führt diese Situation zu Verwirrung, da für die Speicherkomponenten unterschiedliche Begriffe verwendet werden und je nach verwaltetem Speichertyp unterschiedliche Arbeitsabläufe erforderlich sind – gelinde gesagt eine komplizierte und verwirrende Art, mit Speicher umzugehen.
Wir haben auch Speichersysteme gesehen, die eine Befehlszeileninteraktion erfordern, um häufige Aufgaben auszuführen, bei denen eine falsche Eingabe katastrophale Folgen haben kann. Im Gegensatz dazu sind bei VirtualStor-Appliances alle Arbeitsabläufe bei der täglichen Systemverwaltung GUI-basiert und erfordern keine Befehlszeileninteraktion. Da sie von Anfang an mit Multiprotokoll-Unterstützung konzipiert wurden – und nicht erst im Nachhinein –, sind sie außerdem nicht mit veralteten Zusatzfunktionen belastet, was die Verwaltung des VirtualStor intuitiv und fehlerfrei macht.
VirtualStor Scaler-Leistung
Abgesehen davon, dass die Lösung zusammengestellt und einfach zu bedienen ist, muss der Cluster auch eine Leistung bieten, die zu den angestrebten Anwendungsfällen der Kunden passt. Darüber hinaus bietet Bigtera Multiprotokoll-Unterstützung, was dieser Lösung mehr Flexibilität verleiht. Über einen Zeitraum von mehreren Wochen haben wir die Lösung mit folgender Hardwarekonfiguration getestet:
- Client-Knoten
- 1 x GIGABYTE H261-3C0 – 2U 4 Knoten, 3 Knoten wurden für 3 Client-Server verwendet
- Pro Knoten:
- 2 x Xeon Gold 6140 CPUs (18 Kerne, 2.3 GHz)
- 8 x 16 GB 2666 MHz DDR4 RDIMM-Speichermodule
- 1 x GIGABYTE CLNOQ42 Dual Port 25 GB SFP+ OCP LAN-Karte (QLogic FastLinQ QL41202-A2G)
- 1 x 960 GB 2.5-Zoll-SATA-SSD von Seagate
- Speicherknoten
- 3 x GIGABYTE S451-3R0 Speicherserver
- Pro Knoten:
- 2 x Intel Xeon Silver 4114 CPUs (10 Kerne, 2.2 GHz)
- 8 x 16 GB 2666 MHz DDR4 RDIMM-Speichermodule
- 36 x 8 TB 3.5-Zoll-Seagate Exos SATA-Festplatte
- 2 x 3.84 TB Adata SR2000CP AIC SSD
- 1 x 960 GB 2.5-Zoll-SATA-SSD von Seagate
- 1 x GIGABYTE CLN4C44 4 x 25GbE SFP28 LAN-Ports (Mellanox ConnectX-4 Lx)
- 1 x GIGABYTE HW RAID-KARTE CRA4648, GIGABYTE MR 3108 BBU
Wie bereits erwähnt, nutzt die Lösung sowohl Festplatten als auch Flash. Jeder Knoten verwendet zum Booten eine 960-GB-Seagate-SSD. Für die Kapazitätsstufe verwendet GIGABYTE Seagate Exos 8 TB Enterprise-Festplatten, mit 36 Laufwerken pro Speicherknoten. Um das beste Leistungsprofil aus dieser Konfiguration herauszuholen, verwendet GIGABYTE ein Paar Adata SR2000CP 3D eTLC SSDs pro Speicherknoten. Die 3.84-TB-Zusatzkarten übernehmen Journaling-Aufgaben und stellen das Cache-Element für den Cluster bereit. Die SR2000CP-Familie verfügt über Kapazitäten von bis zu 11 TB, aber die 3.84-TB-Karten erfüllen die Leistungsziele (Lese-/Schreibraten von bis zu 6000/3800 MB pro Sekunde) und Kostenziele dieser Appliance.
Im Hinblick auf die Leistung ist es wichtig zu verstehen, wie Unternehmen große SDS-Plattformen betrachten. Im Allgemeinen eignen sie sich hervorragend für die Leistung von Objektprotokollen. Wenn Sie jedoch ein traditionelleres Protokoll wie iSCSI nutzen möchten, wird dies eher als „Kompatibilitäts“-Anwendungsfall angesehen. Anders ausgedrückt: Sie funktionieren, sind aber viel langsamer als die primären Protokolle, auf denen das Speicherarray basiert. Dies ist jedoch nicht bei allen Plattformen der Fall, was den VirtualStor Scaler so einzigartig macht. Um diesen Punkt zu beweisen, führten wir aufeinanderfolgende Tests durch, einen mit dem RBD-Protokoll und einen mit iSCSI. Es ist erwähnenswert, dass das Testen aller von VirtualScaler unterstützten Protokolle nicht Gegenstand dieses Artikels ist, da die Liste umfangreich ist (NFS, CIFS/SMB und S3 API).
Für die Testspezifikationen haben wir FIO genutzt, um die Leistung von 30 10-GB-RBD-Freigaben im Vergleich zu 30 10-GB-iSCSI-LUNs zu messen. Wir haben das so aufgeteilt, dass jedes unserer drei Client-Systeme auf 10 Freigaben oder LUNs zugreift. Anschließend haben wir eine Arbeitslast von 1 Thread pro Speichergerät und eine Warteschlangentiefe von 16 angewendet (insgesamt ergab dies für den Cluster 30 Threads mit jeweils einer 16Q-Last). Anschließend haben wir die Leistung großer sequenzieller Übertragungen sowie kleineren 4K-Zufallsdatenverkehrs verglichen.
Bei unserem ersten Workload, bei dem eine sequentielle Übertragung von 1024 KB gemessen wurde, verzeichneten wir bei jedem unserer drei Clients, die iSCSI nutzten, durchschnittlich etwas mehr als 1600 MB/s Lese- und 960 MB/s Schreibgeschwindigkeit. Insgesamt ergab dies eine Lesegeschwindigkeit von 4.9 GB/s und eine Schreibgeschwindigkeit von 2.9 GB/s. Durch die Nutzung von RBD konnten wir einen ähnlichen Schreibverkehr von über 960 MB/s pro Client feststellen, die Leseleistung war jedoch mit über 2700 MB/s pro Client höher. Insgesamt betrugen die RBD-Gesamtwerte 8.1 GB/s beim Lesen und 2.9 GB/s beim Schreiben.
Als wir unsere Workload-Größe auf eine sequentielle Übertragung von 128 KB reduzierten, sahen wir erneut ein ähnliches Gleichgewicht zwischen iSCSI- und RBD-Leistung. Bei Verwendung von iSCSI verzeichnete jeder Client etwa 440 MB/s beim Schreiben und 1600 MB/s beim Lesen, was einer Gesamtgeschwindigkeit von 1.3 GB/s beim Schreiben und 4.9 GB/s beim Lesen entspricht. Beim Fokussieren auf RBD sahen wir eine etwas geringere Schreibleistung von über 410 MB/s pro Client und eine höhere Leseleistung von über 2500 MB/s pro Client. Dies ergab eine Gesamtgeschwindigkeit von 1.2 GB/s beim Schreiben und 7.8 GB/s beim Lesen über RBD.
Wir verlagern unseren Fokus auf eine geringere Zufallsübertragungsleistung und konzentrieren uns auf unseren 4K-Test. Betrachtet man beide Protokolle beim 4K-Random-Write, so boten iSCSI und RBD beide eine ähnliche Leistung von über 23 IOPS pro Client oder etwa 71 IOPS insgesamt, mit einem Vorsprung gegenüber RBD. Bei der Leseleistung sahen wir iSCSI mit etwa 64 IOPS pro Client oder 193 IOPS insgesamt und RBD mit 97 IOPS pro Client oder 291 IOPS insgesamt.
Wir haben uns bei unseren 4K-Zufallsübertragungstests auf die durchschnittliche Latenz konzentriert und bei einer Gesamtclusterlast von 30 Threads und 16 Warteschlangen pro Thread etwas mehr als 6.7 ms Schreibzeit für iSCSI- und RBD-Übertragungen gemessen, wobei RBD einen kleinen Vorteil hatte. Bei Leseübertragungen hatte die RBD-Leistung einen größeren Vorteil und betrug insgesamt 1.647 ms im Vergleich zu insgesamt 2.489 ms bei iSCSI.
Fazit
VirtualStor Scaler ist eine flexible und skalierbare softwaredefinierte Lösung, die auf branchenüblichen x86-Servern läuft und Datei-, Block- oder Objektspeicher bereitstellt. In diesem Fall haben wir Client- und Speicherknoten von GIGABYTE kombiniert, um die einfache Verwaltung und Multiprotokollunterstützung der konvergenten Lösung hervorzuheben. Es ist auch wichtig, die in der Plattform verfügbare Ausfallsicherheit hervorzuheben. Dies ist vor allem der Ceph-Unterstützung von VirutalStor zu verdanken. Bigtera zieht es vor, mit diesen Botschaften nicht die Führung zu übernehmen, da oft angenommen wird, dass Ceph zwar fantastische Datenschutzfunktionen bietet, es ihm aber an der Fähigkeit mangelt, eine Aussage über Leistung und Flexibilität zu machen – beides ist in den meisten Enterprise-Storage-Anwendungen von entscheidender Bedeutung. Während unserer Zeit mit dem VirtualStor Scaler waren wir immer wieder beeindruckt von der Fähigkeit, neben der RADOS-Blockschnittstelle eine sehr starke iSCSI-Leistung zu liefern. Hinzu kommt, dass es darüber hinaus eine schöne grafische Benutzeroberfläche gibt, was praktisch für diejenigen ist, die sich lieber nicht mit der Befehlszeilenschnittstelle herumschlagen möchten – Bigtera hat hier gute Arbeit geleistet. Die VirtualStor-Lösung ist eindeutig in der Lage, weit mehr als nur ein Data Warehouse für typische Analyse-, HPC- und AI/ML-Bereitstellungen zu sein. Aufgrund der Flexibilität der Lösung wäre es für das Unternehmen ratsam, dies als direkten Ersatz für eine Vielzahl von Anwendungsfällen in Betracht zu ziehen, von der On-Prem-Cloud über die Speicherkonsolidierung bis hin zu typischeren virtualisierten Workloads.
GIGABYTE VirtualStor Scaler-Produktseite