Die ION Data Accelerator-Softwareplattform von Fusion-io nutzt ioMemory-Flash-Speicher und offene Server-Hardware, um Anwendungen und SAN-Leistung durch gemeinsame Nutzung oder Clustering von Hochgeschwindigkeits-PCIe-Flash zu beschleunigen. ION Data Accelerator ist für die Verwendung mit Tier-1-Server-Hardware verschiedener großer Anbieter konzipiert und fungiert dort als Anwendungsbeschleuniger-Appliance, die Blockspeicherprotokolle wie 8/16-Gbit-Fibre-Channel, QDR/FDR-InfiniBand und 10-Gbit-iSCSI unterstützt.
Die ION Data Accelerator-Softwareplattform von Fusion-io nutzt ioMemory-Flash-Speicher und offene Server-Hardware, um Anwendungen und SAN-Leistung durch gemeinsame Nutzung oder Clustering von Hochgeschwindigkeits-PCIe-Flash zu beschleunigen. ION Data Accelerator ist für die Verwendung mit Tier-1-Server-Hardware verschiedener großer Anbieter konzipiert und fungiert dort als Anwendungsbeschleuniger-Appliance, die Blockspeicherprotokolle wie 8/16-Gbit-Fibre-Channel, QDR/FDR-InfiniBand und 10-Gbit-iSCSI unterstützt.
Die Fähigkeiten von ION Data Accelerator als Anwendungsbeschleuniger-Appliance können in Verbindung mit einer Serverplattform wie dem Supermicro X9DRX+-F, die auf maximale Leistung über alle verfügbaren PCIe-Steckplätze ausgelegt ist, voll ausgeschöpft werden. Dieser Testbericht konzentriert sich auf die Leistung des ION Data Accelerator bei Verwendung mit das X9DRX+-F Motherboard in einem SuperChassis 747 zusammen mit den 3.2 TB ioScale PCIe-Karten von Fusion-io. Um sicherzustellen, dass die Netzwerkleistung keinen Engpass darstellt, verwenden wir zwei 16-Gb-HBAs der QLogic 2600-Serie mit zwei Ports für die SAN-Konnektivität.
ioScale begann als Anwendungsbeschleunigungslösung, die nur in großen Mengen für Unternehmensanwendungen verfügbar war. In jüngerer Zeit hat Fusion-io ioScale-Karten in kleineren Mengen verfügbar gemacht, sodass sie einem viel breiteren Kundenkreis zugänglich sind. ION Data Accelerator-Lösungen mit ioScale stellen einen Kontrast zu SAN und Anwendungsbeschleunigung über SSD und Tiered Storage dar. Theoretisch kann eine PCIe-Lösung die Leistung mit weniger Investitionen in neue Geräte und Infrastruktur skalieren, als dies bei konkurrierenden SSD-basierten Architekturen der Fall wäre. Mit anderen Worten: Wenn der Anwendungsbeschleuniger-Ansatz von Fusion-io eine gezieltere Beschleunigung bieten kann als SSD-Speicher, sollten sie weiterhin neue Kunden für diese Technologie finden, auch wenn für ioScale pro Gigabyte ein Preisaufschlag anfällt.
ION Data Accelerator verbessert die Leistung des Speichernetzwerks nicht nur durch die Verwaltung der anspruchsvollsten E/A-Anfragen und die Aufbewahrung von Kopien heißer Daten, um die Latenz von Festplatten zu vermeiden, sondern auch durch die Befreiung von Speicherarrays von der Notwendigkeit, Hochgeschwindigkeits-Caches oder -Tiers zu verwalten . Diese geringeren Durchsatzanforderungen können die Leistung der zugrunde liegenden Massenspeicher-Arrays verbessern. ION Data Accelerator lässt sich in die ioTurbine-Caching-Lösung von Fusion-io integrieren, die sowohl Lese- als auch Schreibbeschleunigung bietet.
Systemanforderungen für den ION Data Accelerator
- Unterstützte Server
- Dell: PowerEdge R720, PowerEdge R420
- HP: ProLiant DL370 G6, ProLiant DL380 G7, ProLiant DL380p Gen8, ProLiant DL580 G7
- IBM: x3650 M4
- Supermicro: Superserver 1026GT-TRF, Superserver 1027GR-TRF, Superserver 6037-TRXF
- Cisco: UCS C240 M3 (Unterstützung gilt für Einzelknoten)
- Grundlegende Hardwareanforderungen
- Speichercontroller
- Fibre Channel erfordert Host-Bus-Adapter (HBAs) der QLogic 2500-Serie.
- InfiniBand erfordert Mellanox ConnectX-2 oder ConnectX-3 InfiniBand Host Channel Adapter (HCAs).
- Für iSCSI sind 10-Gbit-iSCSI-NICs von Intel, Emulex, Mellanox oder Broadcom erforderlich.
- ioSpeicher
- ION Data Accelerator unterstützt nur ioMemory, einschließlich ioDrive, ioDrive Duo, ioDrive2, ioDrive2 Duo und ioScale.
- Alle ioMemory-Produkte innerhalb jedes ION Data Accelerator-Systems müssen hinsichtlich Typ und Kapazität identisch sein.
- Unterstützte Mindestkonfiguration: ein ioDrive (keine RAID-Fähigkeit, es sei denn, Sie haben mehr als ein ioDrive).
- RAM: ION Data Accelerator erfordert eine Basis von 8 GB plus 5 GB pro TB ioMemory. Wenn Sie beispielsweise über 4.8 TB ioMemory verfügen, sollte Ihr System über 8 GB + 4.8 * 5 GB oder 32 GB RAM verfügen.
- Festplatten: Fusion-io empfiehlt, dass Server über gespiegelte Festplatten für Boot und Anwendungen verfügen.
- Verwaltungs-NIC: Das standardmäßig enthaltene NIC-LOM auf der unterstützten Hardwareplattform ist ausreichend.
- Speichercontroller
- Zusätzliche HA-Systemanforderungen
- Ein PCIe-Steckplatz mit einer 40-Gbit-Mellanox ConnectX-3-Verbindung steht zur Verwendung zur Verfügung.
- Beide Internconnect-Ports müssen verbunden sein.
- Jedes ION Data Accelerator-System muss identisch mit ioDrives identischen Typs und identischer Kapazität konfiguriert sein.
- NTP (Network Time Protocol) muss implementiert sein
Management
Unternehmen können die Fusion ioSphere-Verwaltung mit ION Data Accelerator für eine zentrale Steuerung sowohl über eine grafische Benutzeroberfläche als auch über die Befehlszeile verwenden. ioSphere kann außerdem die Überwachung und Verwaltung aller ioMemory-Geräte im Rechenzentrum bereitstellen und die Nachverfolgung von Informationen zum ioMemory-Zustand und zur Lebenserwartung während einer Bereitstellung optimieren.
ION Data Accelerator kann auch in einer Hochverfügbarkeitskonfiguration mit auf integriertem RAID basierender Funktionalität zum Schutz vor Komponentenausfällen und asymmetrischem Aktiv/Aktiv-Failover-Clustering zum Schutz vor Systemausfällen verwendet werden. ION Data Accelerator HA kann über die ioSphere-GUI und eine Befehlszeilenschnittstelle verwaltet werden. ION Data Accelerator HA umfasst Replikationsfunktionen basierend auf Linbits DRBD, das jeden Schreibvorgang über ein Paar geclusterter ION Data Accelerator-Knoten synchron repliziert. Es nutzt außerdem die Tools Corosync und Pacemaker für die Cluster-Ressourcenverwaltung und die Nachrichtenübermittlung bei Ausfällen.
Unter dem Gesichtspunkt der Benutzerfreundlichkeit hat Fusion-io viele Dinge richtig gemacht, indem es den Einrichtungsprozess so einfach gemacht hat, dass er auch von kleinen IT-Abteilungen verwaltet werden kann, ohne ein Experte in Sachen Speicher oder Netzwerk zu sein. Die von uns getestete Konfiguration nutzte ein Supermicro X9DRX+-F-Motherboard mit 10 PCIe 3.0-Steckplätzen, sodass wir den Server mit 8 3.2-TB-ioScale-PCIe-SSDs sowie zwei Dual-Port-16-Gbit-FC-HBAs füllen konnten. Mit der standardmäßigen ISO-Version 2.1.11 konnten wir einen nackten Server in weniger als 15 Minuten in einen ION Accelerator umwandeln.
Sobald das System betriebsbereit ist, besteht der erste Schritt darin, einen Speicherpool zu erstellen, aus dem LUNs herausgeschnitten werden. Benutzer haben die Wahl zwischen drei Speichermodi, darunter RAID0, RAID10 und Direktzugriff. Für unsere Haupttestumgebung haben wir uns für RAID10 oder Reliable Performance entschieden, das immer noch viel Leistung bietet, aber einen ioMemory-Ausfall ohne Datenverlust bewältigen kann. Nachdem dieser Speicherpool eingerichtet ist, besteht der nächste Schritt darin, LUNs für Ihre SAN-Umgebung bereitzustellen.
In unserer Testumgebung haben wir 12 LUNs für VMmark sowie zusätzliche LUNs für synthetische Benchmarks bereitgestellt. Der Vorgang war sehr einfach, da der Benutzer lediglich die erforderliche Kapazität, die Initiatorgruppe, die den Zugriff gewährt, und die Sektorgröße (die auf 512 Byte oder 4 KB eingestellt werden kann) eingibt. Über die Schnittstelle können einzelne LUNs oder mehrere in einer Umgebung erstellt werden, um eine Umgebung schnell bereitzustellen. Der nächste Schritt besteht darin, Initiatorgruppen für mehrere FC-Schnittstellen zu erstellen, die in einer Multipath- oder virtualisierten Umgebung auf eine bestimmte LUN zugreifen können. Wie unten zu sehen ist, hatten wir unsere VMware-Initiatoren in einer Gruppe und unsere Windows-Initiatoren für FIO-Tests in einer anderen.
Sobald die Umgebung eingerichtet und aktiv ist, stellt der ION Accelerator den Benutzern weiterhin eine Fülle von Verwaltungsinformationen zur Verfügung. Die gesamte Leistungsüberwachung wird für Verlaufszwecke gespeichert, sodass Administratoren die Netzwerk- und Geräteleistung bis zum IOP verfolgen und Systemvitalitäten wie Flash-Ausdauer oder Temperaturen verfolgen können. In einem Beispielbericht aus dem VMmark-Test sind der Durchsatz über den ausgewählten Zeitraum sowie durchschnittliche Übertragungsgeschwindigkeiten und Temperaturüberwachung schnell verfügbar. Diese Daten können auch auf bestimmte ioMemory-Geräte eingegrenzt werden.
Für detailliertere ioMemory-Informationen können Benutzer einen Drilldown zu bestimmten Karten durchführen, um sich die Mount-Punkte, die gesamte verbrauchte Ausdauer und andere detaillierte Informationen anzusehen.
Analyse der Anwendungsleistung
Das StorageReview Enterprise Lab beschäftigt a VMmark-basierter Virtualisierungs-Benchmark um Rechen- und Speichergeräte zu bewerten, die üblicherweise in virtualisierten Umgebungen verwendet werden. Die fortschrittliche PCIe-Nutzungs- und Verwaltungsfunktionalität von ION Data Accelerator soll die Leistung solcher Umgebungen verbessern und ihn zu einem klaren Kandidaten für den VMware VMmark-Benchmark machen. Unser VMmark-Protokoll verwendet eine Reihe von Untertests, die auf allgemeinen Virtualisierungs-Workloads und Verwaltungsaufgaben basieren. Die Ergebnisse werden mithilfe einer kachelbasierten Einheit gemessen, die der Fähigkeit des Systems entspricht, eine Vielzahl virtueller Workloads wie das automatische Klonen und Bereitstellen von VMs auszuführen VM-Lastausgleich über ein Rechenzentrum, VM-Live-Migration (vMotion) und dynamische Datenspeicherverschiebung (Storage vMotion).
Bei der Messung der Leistung des ION Data Accelerator mit vier 3.2 TB ioScale PCIe-Karten betrug der höchste normalisierte VMmark 2.5.1-Anwendungswert 15.40 mit 10 Kacheln und der höchste Gesamtwert lag bei 12.66 bei 10 Kacheln. Bei einer Kachel betrug der normalisierte Anwendungsscore 1.7, während der Gesamtscore bei einer Kachel 1.58 erreichte.
Synthetische Benchmarks für Unternehmen
Unser synthetischer Benchmark-Prozess für Unternehmensspeicher versetzt jedes Gerät in einen stabilen Zustand mit der gleichen Arbeitslast, mit der das Gerät getestet wird, unter einer hohen Last von 16 Threads mit einer ausstehenden Warteschlange von 16 pro Thread und wird dann in festgelegten Intervallen in mehreren Threads/Warteschlangen getestet Tiefenprofile zur Darstellung der Leistung bei leichter und starker Beanspruchung.
Vorkonditionierung und primäre stationäre Tests:
- Durchsatz (Lese- und Schreib-IOPS-Aggregat)
- Durchschnittliche Latenz (Lese- und Schreiblatenz insgesamt gemittelt)
- Maximale Latenz (Spitzen-Lese- oder Schreiblatenz)
- Latenz-Standardabweichung (Lese- und Schreib-Standardabweichung insgesamt gemittelt)
Unsere Analyse des ION Data Accelerator umfasst vier Profile, die mit unseren früheren Unternehmensspeicher-Benchmarks und weit verbreiteten Werten vergleichbar sind, wie z. B. maximale Lese- und Schreibgeschwindigkeit von 4K und 8K 70/30, die häufig in Herstellerspezifikationen und Benchmarks veröffentlicht werden.
- 4k
- 100 % Lesen und 100 % Schreiben
- 8k
- 100 % Lesen und 100 % Schreiben
- 70 % Lesen/30 % Schreiben
- 128K
- 100 % Lesen und 100 % Schreiben
Die Messung des Durchsatzes des ION Data Accelerator-Systems in unseren 4K-Tests ergab Lese-IOPS von 301,638 und Schreib-IOPS von 324,506, wenn es in einem RAID0-Array für maximale Leistung konfiguriert wurde. Als RAID10-Array neu konfiguriert, behielt das System eine Leseleistung von 269,203 IOPS bei, während die Schreibleistung bei 199,557 IOPS lag.
Die Darstellung der durchschnittlichen 4K-Lese- und Schreiblatenzen zeigt ähnliche Verzögerungen für Lese- und Schreibvorgänge für das RAID0-Array bei 0.847 ms bzw. 0.786 ms. In unserem Benchmark des RAID10-Arrays steigt die durchschnittliche Leselatenz leicht auf 0.949 ms, während die Schreiblatenz 1.280 ms erreicht.
Die Ergebnisse der maximalen Latenz zeigen einen bemerkenswerten Höhepunkt der 4K-Schreiblatenz in der RAID10-Konfiguration, bei der es während der Bewertung zu einem Zeitpunkt zu einer Verzögerung von 145.75 ms kam.
Die Standardabweichung der 4K-Latenz spiegelt auch die größere Variabilität der Schreiblatenzen wider, die das RAID10-Array mit sich bringt. Im RAID0-Modus hielt die Fusion ION Data Accelerator-Konfiguration beide Standardabweichungen nahe bei 0.62 ms, was sich bei RAID0.709-Lesevorgängen auf 10 ms und bei Schreibvorgängen auf 1.619 ms erhöhte.
Nachdem wir die ioScale-Karten für 8K-Workloads vorkonditioniert hatten, haben wir den Durchsatz der beiden Array-Typen mit 8K-Übertragungen und einer hohen Last von 16 Threads und einer Warteschlangentiefe von 16 gemessen, sowohl für 100 % Lese- als auch 100 % Schreibvorgänge. Das als RAID330,646-Array konfigurierte ION-System erreichte 310,740 Lese-IOPS und 0 Schreib-IOPS, was in RAID171,341 auf 191,423 Lese- und 10 Schreib-IOPS reduziert wurde.
Um ein differenzierteres Bild der Leistung bei 8K-Übertragungen zu erhalten, haben wir als Nächstes einen Test durchgeführt, der zu 70 % aus Lesevorgängen und zu 30 % aus Schreibvorgängen über eine Reihe von Threads und Warteschlangenzahlen bestand. Der Durchsatz blieb in diesem Benchmark zwischen den beiden RAID-Typen konkurrenzfähiger, wobei RAID0 die größten Leistungsvorteile bei größeren Arbeitslasten im Allgemeinen und insbesondere bei tiefen Warteschlangen bot.
Unser Diagramm der durchschnittlichen Latenzen aus dem 8k 70/30-Benchmark zeigt eine sehr ähnliche Leistung beider RAID-Konfigurationen, wobei RAID0 RAID10 verdrängt, wenn die Anzahl der Threads und Warteschlangen zunimmt.
Die Ergebnisse der maximalen Latenz während dieses Tests zeigen ein weniger konsistentes Muster, wobei RAID10 am unteren und oberen Ende des Arbeitslastspektrums einen leichten Vorteil behält.
Beide RAID-Konfigurationen erzielten während des 8k 70/30-Benchmarks eine sehr konstante Latenzleistung. Bei hohen Warteschlangentiefen und wenn die Thread-Anzahl 8 überschreitet, verdrängt RAID0 RAID10.
Unser abschließender synthetischer Benchmark verwendet eine viel größere Übertragungsgröße von 128 KB und testet sowohl 100 % Lesevorgänge als auch 100 % Schreibvorgänge. Durch die größere Übertragungsgröße wird der Leistungsvorteil eines RAID0-Arrays für das ION-System nahezu zunichte gemacht, wobei die Leistungsergebnisse sowohl für Lese- als auch für Schreibvorgänge innerhalb einer Abweichung von 1 % je nach Array-Typ liegen.
Fazit
Fusion-io bietet einige der anspruchsvollsten Anwendungsbeschleunigungsgeräte auf dem Markt, und da seine ioScale PCIe-Karten jetzt für ein viel breiteres Segment des Unternehmensmarkts verfügbar sind, erwarten wir eine häufigere und vielfältigere Nutzung dieser Technologie. Der ION Data Accelerator von Fusion zeigt eine Richtung auf, in die sich PCIe-Speicher bewegt: in Richtung einer koordinierten und automatisierten Bündelung von Hochgeschwindigkeitsspeicherressourcen auf mehreren Hostservern. Zwischen der verbesserten Leistung von ION und der einheitlichen Verwaltung von ioScale-PCIe-Karten auf mehreren Servern hat der ION Data Accelerator gezeigt, dass PCIe eine eindeutige Zukunft und Anwendungsfälle hat, die sich von SSD-basierten Beschleunigungsansätzen unterscheiden.
Wenn es um Benutzerfreundlichkeit und Leistung geht, hat der ION Accelerator von Fusion-io einiges zu bieten. Die Bereitstellung der Software auf unserem eigenen Server dauerte von Anfang bis Ende weniger als 15 Minuten. Nachdem der Speicher online war, dauerte die Bereitstellung nur wenige Minuten, mit intuitiven Menüs und unkomplizierten Einstellungen, um den Speicher an wartende Server zu verteilen. Aus Leistungssicht waren wir im Test mehr als beeindruckt von unserer 4-Gb-FC-Konnektivität mit 16 Ports, die mehr als 5.8 GB/s beim Lesen und 4 GB/s beim sequentiellen Schreiben lieferte, mit Spitzenwerten für zufällige E/A von über 301 Lese- und 324 IOPS schreiben. Die in VMmark 2.5.1 getestete Anwendungsleistung war ebenfalls fantastisch und bewältigte problemlos 10 Kacheln, obwohl wir unsere Konfiguration auf vier ioScale PCIe SSDs in RAID10 verkleinert haben. Als „Roll Your Own Flash SAN“ auf Standardhardware hat Fusion-io mit ION Accelerator die Messlatte hoch gelegt.
Vorteile
- Ermöglicht Benutzern den Aufbau genau des Flash-SANs, das sie benötigen, bis hin zu Speicher, Netzwerkschnittstelle und Server
- Einfach einzurichten und zu verwalten
- Ausgezeichnete Leistung
- Beinhaltet Unterstützung für HA-Konfigurationen
Nachteile
- Begrenzte Server-Supportliste
Fazit
Der Fusion-io ION Data Accelerator bietet IT-Administratoren eine neue Möglichkeit, Flash in einer gemeinsam genutzten Speicherumgebung bereitzustellen, ohne viele der Einschränkungen, die im Mainstream-SAN-Markt zu finden sind. Fusion-io bietet eine einfache GUI-Schnittstelle, Unterstützung für die meisten gängigen Servermarken und Schnittstellenkarten sowie HA-Konfigurationsoptionen und bietet gleichzeitig enorme skalierbare E/A aus einer einzigen Box.