Startseite Unternehmen Testbericht zum Tegile HA2300 Hybrid-Array

Testbericht zum Tegile HA2300 Hybrid-Array

by StorageReview Enterprise Lab

Die IntelliFlash-Arrays von Tegile basieren auf einer Hybridarchitektur, die Kunden die Flexibilität bietet, ihr Array mit einer Mischung aus HDD- und SSD-Speicher mit Latenzen und Speicherdichte zu konfigurieren, die für individuelle Anwendungsfälle geeignet sind. Ein wichtiger Vorteil von Tegile auf dem überfüllten Speichermarkt, den viele Mitbewerber nicht anbieten, ist seine Inline-Deduplizierungs- und Komprimierungstechnologie, die die verfügbare Kapazität für Benutzer erheblich erweitern kann. Durch die Ausweitung der Datenreduzierung auf Festplatten, wo dies bei den meisten Marktteilnehmern nicht möglich ist, profitiert Tegile von sehr beeindruckenden Kosten-/TB-Kennzahlen und behält gleichzeitig die Vorteile von Flash für heiße Daten bei. Unser Test des Tegile HA2300-Arrays setzt IntelliFlash in Verbindung mit einem Erweiterungsfach (Scale-up) ein, sodass beide Controller ein breites Spektrum an Arbeitslasten bewältigen können.


Die IntelliFlash-Arrays von Tegile basieren auf einer Hybridarchitektur, die Kunden die Flexibilität bietet, ihr Array mit einer Mischung aus HDD- und SSD-Speicher mit Latenzen und Speicherdichte zu konfigurieren, die für individuelle Anwendungsfälle geeignet sind. Ein wichtiger Vorteil von Tegile auf dem überfüllten Speichermarkt, den viele Mitbewerber nicht anbieten, ist seine Inline-Deduplizierungs- und Komprimierungstechnologie, die die verfügbare Kapazität für Benutzer erheblich erweitern kann. Durch die Ausweitung der Datenreduzierung auf Festplatten, wo dies bei den meisten Marktteilnehmern nicht möglich ist, profitiert Tegile von sehr beeindruckenden Kosten-/TB-Kennzahlen und behält gleichzeitig die Vorteile von Flash für heiße Daten bei. Unser Test des Tegile HA2300-Arrays setzt IntelliFlash in Verbindung mit einem Erweiterungsfach (Scale-up) ein, sodass beide Controller ein breites Spektrum an Arbeitslasten bewältigen können.

Wie andere Mitglieder des Intelligent Flash Array-Portfolios von Tegile verfügt der HA2300 über redundante Aktiv/Aktiv-Controller und kann mit der vom Kunden gewählten Menge an eMLC-SSD-Speicher eingesetzt werden. Dieser Flash-Speicher und das DRAM des Arrays sowie etwaige integrierte Festplattenspeicher werden von der adaptiven Caching- und Skalierungs-Engine von Tegile genutzt, die häufig aufgerufene Daten im DRAM und Hochleistungs-Flash-Speicher zwischenspeichert, während weniger häufig aufgerufene Daten aktiviert bleiben hochdichte Flash- oder Festplattenebenen.

Die Hauptmerkmale, die die Arrays von Tegile auf dem Markt einzigartig machen, sind die Deduplizierungs- und Komprimierungs-Engines des Unternehmens. Die Deduplizierung und Komprimierung aller Daten hat naturgemäß einen gewissen Overhead-Einfluss auf die Leistung, aber IntelliFlash nutzt einen proprietären Ansatz für die Metadatenverwaltung, der teilweise darauf ausgelegt ist, diesen Performance-Overhead zu mindern. Anstatt Daten und Metadaten zu verschachteln, vermeiden Tegile-Arrays die Fragmentierung von Metadaten, indem sie Metadaten in dedizierten DRAM- und Flash-Medien speichern, die es dem Array auch ermöglichen, über dedizierte Hochgeschwindigkeits-Abrufpfade auf Metadaten zuzugreifen.

Mit der Caching- und Skalierungs-Engine von Tegile können Hybridkonfigurationen Medien mit unterschiedlichen Latenzen integrieren. Diese Caching-Lösung verwendet gespiegeltes DRAM und SSDs, um zwei „Lese-Cache“-Ebenen für häufig abgerufene Daten einzurichten und verfolgt außerdem den Abnutzungsgrad von Flash-Speichermedien, um die eMLC-Abnutzung im gesamten Array gleichmäßiger zu gestalten.

Die Intelligent Flash Array-Familie unterstützt den Zugriff über die Protokolle FC, iSCSI, NFS und CIFS, wobei die SMB 3.0-Funktionalität über ein zukünftiges Software-Update erwartet wird. Aufgrund des redundanten Media-Fabric-Designs von IntelliFlash, das die Konnektivität zwischen beiden Controllern konsolidiert, können alle Protokolle gleichzeitig über alle kompatiblen Ports verwendet werden. Alle Schreibvorgänge erfolgen synchron, wobei neue Daten ihren Lebenszyklus in einem dauerhaften Flash-Schreibcache beginnen. 

Während ein großer Teil der Vorteile von Tegile auf den Caching-Technologien und der Datenreduzierung beruht, profitieren die Geräte auch von einem starken Argument der Benutzerfreundlichkeit. Ihre Verwaltungs-GUI ist übersichtlich und einfach zu bedienen, wobei die meisten Aufgaben wie die LUN-Bereitstellung mit nur wenigen Klicks erledigt werden können. Der Tegile-Administrator wird außerdem mit allgemeinen Kennzahlen und dem ikonischen „Donuts“-Bild von Tegile auf dem Dashboard begrüßt, um die Platzeinsparungen zu veranschaulichen, die das Array bietet. 

Während sich unser Test auf den HA2300 mit Regal bezieht, bietet Tegile je nach Kundenwunsch eine große Auswahl an Konfigurationen. Ihre neueste Familie von T3000-Hybrid-Arrays bietet beispielsweise eine Reihe vorkonfigurierter Vorschläge basierend auf dem Anwendungsfall, darunter kapazitätsoptimierte, leistungsoptimierte, geschäftskritische Arbeitslasten usw. Tegile bietet außerdem mehrere All-Flash-Modelle an, die ihre Kerntechnologien nutzen, um Konfigurationen zu liefern, die vom ESH-20 mit 18 TB Rohspeicher bis zum ESF-145 mit 144 TB Rohspeicher reichen. Tegile geht davon aus, dass Kunden bei diesen Modellen zusätzliche Kapazitätsvorteile in Höhe des Drei- bis Fünffachen erzielen werden, abhängig von der Arbeitslast und der Datenreduzierung. 

Technische Daten des Tegile HA2300

  • Plattformkonfiguration:
    • Prozessor: 4x Xeon E5620
    • DRAM-Speicher: 192 GB
    • Flash-Speicher: 1200 GB
  • Speicherkapazität:
    • Min.: Rohkapazität: 16 TB
    • Max: Rohkapazität: 144 TB
  • Physikalisch:
    • Formfaktor (Rack-Einheiten): 2U
    • Gewicht (kg): 80
    • Leistung (W): 500
  • Erweiterungsregale: Bis zu 3
  • Netzwerkverbindungen:
    • 1-Gbit/s-Ethernet-Ports: 12
    • 1 Gbit/s IP-KVM Lights-out-Management-Port: 2
    • Optionale Konnektivität: Dual-Port 4/8 Fibre Channel, Dual-Port 10GbE Kupfer/Glasfaser, Quad-Port 1 Gbit/s Ethernet
  • Enthaltene Software-Services:
    • Protokolle: SAN-Protokollunterstützung (iSCSI, Fibre Channel), NAS-Protokollunterstützung (NFS, CIFS, SMB 3.0)
    • Datendienste: Deduplizierung, Komprimierung, Thin Provisioning, Snapshots, Remote-Replikation, Anwendungsprofile
    • Verwaltung: Webbrowser, SSH, IP-KVM
    • Redundanz: Kein Single Point of Failure, Aktiv-Aktiv-Hochverfügbarkeitsarchitektur
  • Standardgarantie: 90 Tage: Support rund um die Uhr per Telefon und E-Mail. Hardware-Ersatzteile am nächsten Werktag. Kostenlose Software-Updates.
  • Optionale Garantie:
    • 1, 3 oder 5 Jahre: 24×7-Support per Telefon und E-Mail. Hardware-Ersatzteile am nächsten Werktag. Kostenlose Software-Updates.
    • Vor-Ort-Gold-Level-Support: 4 Stunden Vor-Ort-Support mit optionalem Vor-Ort-Hardware-Kit
    • Vor-Ort-Support der Silber-Stufe: Technischer Support vor Ort am nächsten Werktag

Aufbau und Design

IntelliFlash-Arrays verwenden ein Paar redundanter Aktiv/Aktiv-Controller in einem Gehäuse, das bis zu 24 2.5-Zoll-HDDs und SSDs unterstützt. Jeder Controller bietet zwei PCIe-Steckplätze zur Konnektivitätserweiterung und unterstützt mehrere Verbindungstypen wie Ethernet und FC. Alle IntelliFlash-Speicher Medienoptionen verfügen über zwei Ports für die Konnektivität zu beiden Controllern und bieten redundante Verbindungen für den Fall, dass eine einzelne Verbindung ausfällt.

Unsere Testkonfiguration des Tegile HA2300 umfasst das Primärsystem mit zwei Controllern und 24 Festplatten sowie ein ES2400-Erweiterungsfach mit zusätzlichen 24 Festplatten. Unsere Speicherkonfiguration bestand aus jedem Controller, der seinen eigenen Speicherpool mit 24 Festplatten verwaltete, bestehend aus (6) 200-GB-eMLC-SAS2-SSDs sowie (18) 1-TB-7200-RPM-SAS2-Festplatten.

Jeder Controller wird von zwei 2.4-GHz-Intel-E5620-Prozessoren mit 96 GB DRAM angetrieben. Dadurch verfügt der HA2300 über insgesamt 4 Prozessoren und 192 GB auf beiden Aktiv/Aktiv-Controllern. Bei dem in unserer Konfiguration enthaltenen zusätzlichen ES2400-Regal handelt es sich lediglich um eine JBOD-Einheit, die lediglich Speicherkapazität hinzufügt. Mit der mitgelieferten Hardware bot unsere Plattform 6.2 TB Rohdaten, die über einen Controller genutzt werden konnten, und 7.14 TB Rohdaten, die auf dem zweiten Controller genutzt werden konnten.

Management

Die Tegile IntelliFlash-Architektur virtualisiert die zugrunde liegenden Speichermedien und erstellt einen Kapazitätspool, der als LUNs oder Dateifreigaben zugewiesen werden kann. Diese Poolkapazität kann online erweitert werden. Die Tegile-Architektur verwendet dynamische Stripe-Breiten, um Leistungseinbußen durch Lese-, Änderungs- und Schreibvorgänge zu vermeiden und um die für die Rekonstruktion ausgefallener Laufwerke erforderliche Zeit zu verkürzen. IntelliFlash-Arrays unterstützen RAID-Level mit Dual-Parität, Zwei-Wege-Spiegelung und Drei-Wege-Spiegelung. Datensicherheit ist in Form einer 256-Bit-AES-Verschlüsselung ruhender Daten mit nativer Schlüsselverwaltung verfügbar.

Einzelne Volumes können basierend auf Anwendungsfällen wie Datenbank, Servervirtualisierung und virtuellem Desktop optimiert werden. Dieser Optimierungsprozess wirkt sich auf Einstellungen wie Blockgröße, Komprimierung und Deduplizierung aus. Die Verwaltungsschnittstelle ist für die Unterstützung virtualisierter Umgebungen konzipiert und bietet Verwaltungstools, die mit der Granularität virtueller Maschinen anstelle von LUNs, Dateisystemen und RAID-Gruppen für virtualisierte Situationen konfiguriert werden können.

Zu den Datenreduzierungsdiensten von IntelliFlash gehören Inline-Deduplizierung, Inline-Komprimierung und Thin Provisioning. Deduplizierung und Komprimierung können für den gesamten Speicherpool oder für einzelne LUNs und Dateifreigaben aktiviert werden. Jede LUN kann mit Blockgrößen von 4 KB bis 128 KB und einer Auswahl an Komprimierungsalgorithmen basierend auf der Arbeitslast konfiguriert werden. Im nächsten Abschnitt gehen wir näher auf die Vorteile der Datenreduzierung ein.

Tegile IntelliFlash-Arrays können Point-in-Time-Snapshots erstellen, die VM-fähig und anwendungskonsistent sind. Snapshots können extern repliziert werden, mit nur inkrementellen Änderungen seit dem vorherigen Snapshot, der über WAN übertragen wurde. Beschreibbare Point-in-Time-Images werden mithilfe der Klonfunktion erstellt und sind außerdem VM-fähig und anwendungskonsistent. Wie Snapshots sind Klone „dünn“ und weisen nur bei Bedarf Kapazität für neue Daten zu.

Ein vCenter-Web-Client und ein Desktop-Client-Plugin ermöglichen die Verwaltung von VMware-Datenspeichern über vCenter. Tegile bietet außerdem VAAI-Unterstützung, um den I/O-Overhead in VMware-Umgebungen zu reduzieren. IntelliFlash-Arrays werden auch im Rahmen des Citrix Ready VDI Capacity Program Verified für Citrix XenDesktop getestet und verifiziert.

In Microsoft-Umgebungen lassen sich Tegile-Arrays mit CSV für Failover-Clustering für Hyper-V integrieren. VSS für anwendungskonsistente Snapshots und Klone; und wird in Zukunft SMB 3.0-Unterstützung haben. Virtuelle Microsoft Hyper-V-Maschinen können über Microsoft Systems Center Virtual Machine Manager (SCVMM) verwaltet werden. Tegile bietet vorab getestete und validierte Oracle-Architekturen zusätzlich zum Testen und Zertifizieren seiner Arrays mit Oracle VM und validiert mit Oracle Linux mit UEK in Einzelinstanz- und Oracle RAC-Bereitstellungen.

Das IntelliCare-Portal bietet einen Zugangspunkt für Systeminformationen, Konfigurationsdetails, historische Daten und Trendanalysen sowie Datenreduktionsraten und dient als Schnittstelle für die Verwaltung von Supportfällen. IntelliCare kann so konfiguriert werden, dass es Kapazitätswarnungen an Kunden und den Tegile-Support sendet, die auf einer linearen Verlaufsanalyse der Speicherplatznutzung, Schwellenwertwarnungen für Festplatten und Hochverfügbarkeitsfehlern basieren. Wenn eine Warnung ausgelöst wird, kann IntelliCare so konfiguriert werden, dass dem Fall automatisch ein Tegile-Kundenbetreuer zugewiesen wird, der Zugriff auf den Array-Status und die Konfigurationsdaten hat.

Datenreduzierung

Im Bereich der High-End-Hybrid-Speicher-Arrays ist Tegile ein Vorreiter, wenn es darum geht, die Vorteile der Datenreduzierung in ein primäres Speicher-Array zu integrieren. Zu den bekanntesten Screencaps von Benutzern gehören die Posts von „Donut“-Aufnahmen, die die Menge der gespeicherten Daten zeigen, wie viel Speicherplatz nach der Komprimierung verbraucht wird und schließlich, wie viel Speicherplatz nach der Deduplizierung verbraucht wird. Da in vielen Produktionsumgebungen virtualisierte Server ausgeführt werden und der Wunsch besteht, dass Test-/Entwicklungsarbeiten nicht in Silos ausgeführt werden, sind sich wiederholende Daten ein branchenweites Problem, das auf unterschiedliche Weise angegangen werden kann. Sie können entweder ein Array ohne Vorteile der Datenreduzierung so dimensionieren, dass es den aktuellen oder absehbaren zukünftigen Anforderungen entspricht, oder die Datenreduzierung nutzen, um diesen Platzbedarf zu minimieren, indem Sie doppelte oder leicht komprimierbare Daten entfernen. Von allen von uns getesteten herkömmlichen Hybridspeicherplattformen war die Tegile HA2300 die einzige, die Datenreduzierungsfunktionen auf diesem Niveau bietet.

Um die Datenreduzierungsfunktionen des Tegile HA2300 zu testen, verwendeten wir das Standard-LUN-Profil der virtuellen Maschine mit aktivierter Komprimierung und Deduplizierung und präsentierten es einem unserer ESXi-Hosts. Bei diesem Test wurde lediglich der Footprint dieser einzelnen VM untersucht, nachdem sie auf das Array migriert wurde. Das erste, das wir ausprobiert haben, war unsere CentOS 6.3-VM, die zum Testen der MySQL-Leistung auf gemeinsam genutztem Speicher verwendet wurde. Diese VM verfügt über eine vorgefertigte Datenbank auf einer ihrer vDisks, die dann auf eine leere vDisk kopiert wird, die dann unter Last gesetzt wird. In diesem speziellen Szenario konnten wir Einsparungen von etwa 12 % verzeichnen, die hauptsächlich auf die Komprimierung zurückzuführen sind.

Unser nächster Test befasste sich mit einer CentOS 7-VM, die wir für unsere kommenden OpenLDAP-Benchmarks verwenden. Bei den Dateneinsparungen konnten wir einen viel besseren Anstieg von über 55 % feststellen, der hauptsächlich auf die Komprimierung zurückzuführen ist. In einer Umgebung mit vielen ähnlichen VMs (mehrere Linux- oder Windows-Distributionen) würden Sie die Vorteile sowohl der Komprimierung als auch der Deduplizierung erkennen. Das Gleiche gilt für Szenarien wie VDI oder Test/Dev auf Primärspeicher, bei denen die Vorteile der Deduplizierung weitgehend linear mit jeder neu erstellten VM zunehmen. 

Bei allen Datenreduktionsdiensten gibt es einen Leistungskompromiss aufgrund des Systemaufwands, der für die damit verbundenen Aufgaben und die Metadatenverwaltung erforderlich ist. Wir haben langsame Single-Threaded-Übertragungsgeschwindigkeiten (Kopieren/Einfügen-Aktionen innerhalb von VMs oder SvMotion-Aktivitäten zwischen Datenspeichern) festgestellt, die bei etwa 100 MB/s lagen. Dies umfasste sowohl Lese- als auch Schreibvorgänge mit nahezu 100 % Cache-Treffer. Interessanterweise stellten wir bei allen unseren Workloads nur sehr geringe Leistungsunterschiede fest, unabhängig davon, ob die Datenreduzierungsdienste aktiviert oder vollständig deaktiviert waren. Im Vergleich dazu können viele Arrays in diesem Segment ohne Datenreduzierungsdienste eine einzelne 10-Gbit-Ethernet- oder 16-Gbit-FC-Schnittstelle durch ähnliche Datenbewegungsaktivitäten nahezu überlasten.

Hintergrund und Vergleiche testen

Wir veröffentlichen eine Bestandsaufnahme unserer Laborumgebung, ein Überblick über die Netzwerkmöglichkeiten des Labors, und weitere Details zu unseren Testprotokollen, damit Administratoren und diejenigen, die für die Gerätebeschaffung verantwortlich sind, die Bedingungen, unter denen wir die veröffentlichten Ergebnisse erzielt haben, angemessen einschätzen können. Um unsere Unabhängigkeit zu wahren, werden keine unserer Bewertungen vom Hersteller der von uns getesteten Geräte bezahlt oder verwaltet.

Wir werden den Tegile HA2300 mit dem vergleichen Dot Hill AssuredSAN Ultra48, AMI StorTrends 3500i, X-IO ISE 710HP StoreVirtual 4335und der Dell EqualLogic PS6210XS. Bei allen Synthese- und Anwendungstests wurden Komprimierung und Deduplizierung während Leistungsläufen deaktiviert. Das Array wurde von einem Außendienstmitarbeiter von Tegile in unserem Labor bereitgestellt, während die LUNs für synthetische Benchmarks und unser SQL Server-Test von einem technischen Marketingmitarbeiter von Tegile aus der Ferne konfiguriert wurden. LUNs für VMmark wurden mit dem Profil „Virtual Server“ mit deaktivierten Snapshots konfiguriert und über jeden ESXi-Host mithilfe des VMware iSCSI-Softwareadapters verbunden.

Bei jeder getesteten Plattform ist es sehr wichtig zu verstehen, wie jeder Anbieter das Gerät für unterschiedliche Arbeitslasten konfiguriert und welche Netzwerkschnittstelle zum Testen verwendet wird. Die Menge des verwendeten Flashs ist ebenso wichtig wie der zugrunde liegende Caching- oder Tiering-Prozess, wenn es darum geht, wie gut er bei einer bestimmten Arbeitslast funktioniert. Die folgende Liste zeigt die Menge an Flash und HDD, wie viel in unserer spezifischen Konfiguration nutzbar ist und welche Netzwerkverbindungen genutzt wurden:

  • Tegile HA2300 mit Erweiterungsregal
    • Listenpreis: 100,443 $ Basiskonfiguration, 185,000 $ im Test mit zusätzlichem Ablagefach
    • Rohe nutzbare Kapazität vor Datenreduzierung: 13.4 TB (6.2 TB erstes Regal + 7.14 TB zweites Regal)
    • Flash: 12 x 200 GB HGST eMLC SAS2 SSDs
    • Festplatte: 36 x 1 TB Seagate SAS2 7200 U/min Festplatten
    • Netzwerkverbindung: 10 GB, 2 x 10 GB pro Controller
  • Dot Hill AssuredSAN Ultra48 (Hybrid)
    • Listenpreis: 113,158 $
    • Flash: 800 GB (4 x 400 GB HGST SAS3 SSDs, 2 RAID1-Pools)
    • Festplatte: 9.6 TB (32 x 600 GB 10K 6G SAS-Festplatten, 2 RAID10-Pools)
    • Netzwerkverbindung: 16 Gbit FC, 4 x 16 Gbit FC pro Controller
  • AMI StorTrends 3500i
    • Listenpreis: 87,999 $
    • Flash-Cache: 200 GB (200 GB SSDs x 2 RAID1)
    • Flash-Tier: 1.6 TB nutzbar (800 GB SSDs x 4 RAID10)
    • Festplatte: 10 TB nutzbar (2 TB Festplatten x 10 RAID10)
    • Netzwerkverbindung: 10GbE iSCSI, 2 x 10GbE Twinax pro Controller
  • HP StoreVirtual 4335 – 3 Knoten
    • Listenpreis: 41,000 $ pro Knoten, 123,000 $
    • Flash: 1.2 TB nutzbar (400 GB SSDs x 3 RAID5 pro Knoten, Netzwerk-RAID10 im gesamten Cluster)
    • Festplatte: 10.8 TB nutzbar (900 GB 10K-Festplatten x 7 RAID5 pro Knoten, Netzwerk-RAID10 im gesamten Cluster)
    • Netzwerkverbindung: 10GbE iSCSI, 1 x 10GbE Twinax pro Controller
  • Dell EqualLogic PS6210XS
    • Listenpreis: 134,000 $
    • Flash: 4 TB nutzbar (800 GB SSDs x 7 RAID6)
    • Festplatte: 18 TB nutzbar (1.2 TB 10K-Festplatten x 17 RAID6)
    • Netzwerkverbindung: 10GbE iSCSI, 2 x 10GbE Twinax pro Controller
  • X-IO ISE 710
    • Listenpreis: 115,000 $
    • 800 GB Flash (200 GB SSDs x 10 RAID10)
    • 3.6 TB Festplatte (300 GB 10K Festplatte x 30 RAID10)
    • Netzwerkverbindung: 8 Gbit FC, 2 x 8 Gbit FC pro Controller

Dieser Benchmark nutzt unsere ThinkServer RD630 Benchmark-Umgebung:

  • Lenovo ThinkServer RD630 Testumgebung
    • 2 x Intel Xeon E5-2690 (2.9 GHz, 20 MB Cache, 8 Kerne)
    • Intel C602 Chipsatz
    • Speicher – 16 GB (2 x 8 GB) 1333 MHz DDR3 registrierte RDIMMs
    • Windows Server 2008 R2 SP1 64-Bit, Windows Server 2012 Standard, CentOS 6.3 64-Bit
      • Boot-SSD: 100 GB Micron RealSSD P400e
    • LSI 9211-4i SAS/SATA 6.0 Gbit/s HBA (für Boot-SSDs)
    • LSI 9207-8i SAS/SATA 6.0 Gbit/s HBA (zum Benchmarking von SSDs oder HDDs)
    • Emulex LightPulse LPe16202 Gen 5 Fibre Channel (8GFC, 16GFC oder 10GbE FCoE) PCIe 3.0 Dual-Port CFA
  • Mellanox SX1036 10/40-Gbit-Ethernet-Switch und Hardware
    • 36 40-GbE-Ports (bis zu 64 10-GbE-Ports)
    • QSFP-Splitterkabel 40GbE bis 4x10GbE

Analyse der Anwendungsleistung

Unsere ersten beiden Benchmarks des Tegile IntelliFlash HA2300 sind die VMware VMmark Virtualisierungs-Benchmark und der Microsoft SQL Server OLTP-Benchmark, die beide Anwendungs-Workloads simulieren, die denen ähneln, für die der HA2300 und seine Vergleichsgeräte konzipiert sind.

Das StorageReview VMmark-Protokoll nutzt eine Reihe von Untertests basierend auf allgemeinen Virtualisierungs-Workloads und Verwaltungsaufgaben, wobei die Ergebnisse mithilfe einer kachelbasierten Einheit gemessen werden. Als branchenweit anerkannter und etablierter Benchmark stellt VMmark Rechenleistung und Speicher auf Augenhöhe, wobei kaum oder gar keine Benchmark-Änderungen zulässig sind. Kacheln messen die Fähigkeit des Systems, eine Vielzahl virtueller Arbeitslasten auszuführen, wie z. B. Klonen und Bereitstellen von VMs, automatischer VM-Lastausgleich über ein Datencenter, VM-Live-Migration (vMotion) und dynamische Datenspeicherverschiebung (Storage vMotion).

Die normalisierten VMmark-Anwendungswerte und Gesamtwerte zeigen die Leistung des Tegile HA2300 im Vergleich zu vergleichbaren Arrays bei einer geringeren Anzahl von Kacheln. Der HA2300 beginnt bei 6 Kacheln mit einer Gesamtpunktzahl von 6.6 ins Hintertreffen zu geraten, verglichen mit der nächstniedrigeren Gesamtpunktzahl von 7.6 beim HP StoreVirtual 4335. Die dualen Speicherpools unseres HA2300 waren nicht leistungsstark genug, um über 6 Kacheln hinauszugehen. wobei jedem Controller die gleiche Anzahl an Kacheln zugewiesen ist. In diesem Test erreichte der HP StoreVirtual 4335 8 Kacheln, während der Dell EqualLogic PS6210XS und der AMI StorTrends 3500i 10 Kacheln erreichten.

StorageReviews Microsoft SQL Server OLTP-Testprotokoll verwendet den aktuellen Entwurf des Benchmark C (TPC-C) des Transaction Processing Performance Council, einen Online-Transaktionsverarbeitungs-Benchmark, der die Aktivitäten in komplexen Anwendungsumgebungen simuliert. Der TPC-C-Benchmark kommt der Messung der Leistungsstärken und Engpässe der Speicherinfrastruktur in Datenbankumgebungen näher als synthetische Leistungsbenchmarks. Unser SQL Server-Protokoll für diese Überprüfung verwendet eine SQL Server-Datenbank mit 685 GB (Maßstab 3,000) und misst die Transaktionsleistung und Latenz unter einer Last von 30,000 virtuellen Benutzern.

Unser SQL Server-Benchmark nutzt eine große einzelne Datenbank und Protokolldatei, die wir unserem Windows Server 1-Host mit aktiviertem MPIO als einzelne 2012-TB-LUN zur Verfügung stellen. Bei der Konfiguration des Tegile HA2300 für unseren SQL Server-Benchmark haben wir eine einzelne 1-TB-LUN genutzt. Dadurch wird die Last auf einen Controller verlagert, der von einem Festplattenpool unterstützt wird, sodass ein Controller und Festplattenpool in seiner Aktiv/Aktiv-Konfiguration im Leerlauf bleiben. Alle Geräte in dieser Kategorie werden in die gleiche Position gebracht, wobei ein LUN und ein Controller die Aktivität hinter diesem Benchmark steuern.

Der Tegile HA2300 hat in diesem Benchmark 3,058.5 Transaktionen pro Sekunde gemessen und liegt damit vor der All-HDD-RAID50-DotHill-Ultra48-Konfiguration. Diese Leistung liegt bei etwa der Hälfte des Niveaus der leistungsstärksten Hybrid-Arrays, die mit diesem Protokoll getestet wurden.

Der HA2300 behielt während des SQL Server-Benchmarks eine durchschnittliche Latenz von 5,068 ms bei, die zweitniedrigste Leistung unter den Vergleichsgeräten.

Es ist zu beachten, dass Microsoft SQL Server während der TPC-C-Arbeitslast sehr schreibintensiv ist und seinen Protokollpuffer in regelmäßigen Abständen auf die Festplatte überträgt. Wenn die Schreibleistung nachlässt und ein Speicherarray nicht mehr mithalten kann, häufen sich ausstehende Warteschlangen und erhöhen die Latenz erheblich. Dies zeigt sich sowohl beim Tegile HA2300 als auch beim DotHill Ultra48 in einer RAID50-Konfiguration. Während der ersten Einrichtung unseres SQL Server-Tests mit unserer Windows Server 2012-Plattform stellten wir Single-Threaded-Schreibgeschwindigkeiten von über 100 MB/s fest, indem wir durch einfache Kopier-/Einfügeaktionen unsere vorgefertigte Datenbank auf die vom HA2300 präsentierte LUN verschoben. Diese langsame Schreibgeschwindigkeit war auch in unserer VMware-Umgebung bei Storage-vMotion-Aktivitäten vor und während unserer Tests sichtbar. Bei synthetischen Multithread-Workloads, bei denen wir die ausstehenden Warteschlangentiefen erhöhen konnten, konnten mehr als 1.1 GB/s beim Lesen und 755 MB/s beim Schreiben festgestellt werden, diese waren jedoch in keinem unserer Anwendungsfälle sichtbar.

Synthetische Workload-Analyse für Unternehmen

Vor der Initiierung jedes einzelnen FIO synthetische BenchmarksIn unserem Labor wird das Gerät unter einer hohen Last von 16 Threads mit einer ausstehenden Warteschlange von 16 pro Thread in den stabilen Zustand versetzt. Anschließend wird der Speicher in festgelegten Intervallen mit mehreren Thread-/Warteschlangentiefenprofilen getestet, um die Leistung bei leichter und starker Nutzung zu zeigen.

  • Vorkonditionierung und primäre stationäre Tests:
  • Durchsatz (Lese- und Schreib-IOPS aggregiert)
  • Durchschnittliche Latenz (Lese- und Schreiblatenz insgesamt gemittelt)
  • Maximale Latenz (Spitzen-Lese- oder Schreiblatenz)
  • Latenz-Standardabweichung (Lese- und Schreib-Standardabweichung insgesamt gemittelt)

Diese synthetische Analyse umfasst zwei Profile, die häufig in Herstellerspezifikationen und Benchmarks verwendet werden:

  • 4k – 100 % Lesen und 100 % Schreiben
  • 8k – 70 % Lesen/30 % Schreiben

Während synthetische Workloads hilfreich sein können, um eine starke und wiederholbare Last auf Speichergeräten zu erzeugen, bieten sie für Kunden, die versuchen, IOPS und Latenz mit der Datenbank-, Virtualisierungs- oder anderen Anwendungsleistung zu korrelieren, einen geringeren Wert. Im Gegensatz zu Anwendungs-Workloads können synthetische Workload-Generatoren auch erheblich massiert werden, einschließlich der Art der angewendeten Daten, der Größe des Workloads, der Anzahl der Threads, der Anzahl ausstehender I/Os, der Zufälligkeit der zufälligen Workload oder sogar der Art der Die Last wird auf den zugrunde liegenden Speicher angewendet. Das beschreibt nicht annähernd den Umfang und die Fähigkeiten von FIO, IOMeter oder vdBench, sondern kratzt nur an der Oberfläche. Um unsere Benchmarks beim Vergleich verschiedener Speicher-Arrays relevant zu halten, wenden wir identische Skripte und Konfigurationen auf alle Plattformen an, die in unser Labor kommen. Während dies bedeuten kann, dass einige Plattformen höchstwahrscheinlich unterschiedliche oder höhere Zahlen mit unterschiedlichen Konfigurationen sehen können, stellt die Anzeige von „Gefällt mir“-Ergebnissen alle Plattformen auf Augenhöhe. Derzeit testen wir in einer Windows Server 2012-Umgebung mit acht dem Server zugewiesenen 8-GB-LUNs, die gleichmäßig über das Array verteilt sind. Dadurch wird die Arbeitslast auf die Speicher- oder DRAM-Ebene beschränkt, während eine lange Vorkonditionierungsperiode dazu zwingt, in die Ebene mit der höchsten Leistung oder den Cache zu migrieren. 

Zum Zeitpunkt des Beginns dieser Überprüfung sowie für die Überprüfungen anderer Hybridspeicherplattformen derselben Generation haben wir das folgende FIO-Skript verwendet, um unsere 8 definierten LUNs als Teil desselben FIO-Threads anzusprechen. 

fio.exe –filename=\\.\PhysicalDrive1:\\.\PhysicalDrive2:\\.\PhysicalDrive3:\\.\PhysicalDrive4:\\.\PhysicalDrive5:\\.\PhysicalDrive6:\\.\PhysicalDrive7:\\ .\PhysicalDrive8 –thread –direct=1 –rw=randrw –refill_buffers –norandommap –randrepeat=0 –ioengine=windowsaio –bs=4k –rwmixread=100 –io Depth=16 –numjobs=16 –time_based –runtime=60 –group_reporting – name=FIO_group_test –output=FIO_group_test.out

Diese Arbeitslast kann auch angewendet werden, wenn jede LUN ihren eigenen dedizierten FIO-Thread erhält. Mithilfe eines modifizierten Skripts kann die vom FIO gemessene Leistung des Tegile HA2300 um mehr als 50 % gesteigert werden, obwohl diese Ergebnisse nicht mehr gleichwertig mit anderen von uns getesteten Arrays vergleichbar sind. Es versteht sich von selbst, dass auch andere Arrays Verbesserungen oder Änderungen erfahren würden. Ein Beispiel für diese Änderung wäre dem folgenden ähnlich:

fio.exe –thread –direct=1 –rw=randrw –refill_buffers –norandommap –randrepeat=0  –ioengine=windowsaio –bs=4k –rwmixread=100  –iodepth=16 –numjobs=16 –time_based –runtime=60 –group_reporting –name=thread1 filename=\\.\PhysicalDrive1  –name=thread2 filename=\\.\PhysicalDrive2  –name=thread3 filename=\\.\PhysicalDrive3  –name=thread4 filename=\\.\PhysicalDrive4  –name=thread5 filename=\\.\PhysicalDrive5  –name=thread6 filename=\\.\PhysicalDrive6  –name=thread7 filename=\\.\PhysicalDrive7  –name=thread8 filename=\\.\PhysicalDrive8  –output=FIO_test.out

Es ist wichtig zu beachten, dass beide Benchmarks zum gleichen Ergebnis kommen. Sie zeigen ein wiederholbares Ergebnis, das innerhalb der Grenzen dieser Parameter eine bestimmte Anzahl von IOPS, Latenz und Bandbreite bietet. Keine der beiden Zahlen kann miteinander verglichen werden. Beide Tests zeigen auch nicht, wie sich eine Plattform in einer realen Produktionsumgebung verhält, und das ist auch nicht möglich, da sie keine Anwendungsanforderungen stellen.

Unser erster Benchmark misst die Leistung zufälliger 4K-Übertragungen, die zu 100 % aus Schreib- und 100 % Leseaktivität bestehen. Der Tegile HA2300 erreichte 120,072 IOPS, die dritthöchste Leseleistung unter den Vergleichsgeräten in diesem Benchmark, und 38,311 IOPS, die zweithöchste Schreibleistung der 4K-Kategorie.

Der Tegile HA2300 verzeichnete eine durchschnittliche Leselatenz von 2.13 ms und eine Schreiblatenz von 6.68 ms und war damit ebenfalls der drittbeste bzw. zweitbeste unter den vergleichbaren Arrays.

Wir haben beim Tegile HA2300 maximale Latenzen gemessen, die viel höher waren als die seiner Vergleichsgeräte. Die maximale Leselatenz wurde mit etwa 7,188 ms gemessen und die maximale Schreiblatenz erreichte 6,885 ms.

Standardabweichungsberechnungen zeigen, dass der Tegile HA2300 in Bezug auf die Latenz mit 11.10 ms für Lesevorgänge und 31.29 ms für Schreibvorgänge deutlich weniger konsistent ist als seine Hybrid-Kollegen. Im Vergleich dazu rangierte der mit allen Festplatten konfigurierte DotHill Ultra48 am Ende dieser Kategorie, obwohl er nach Einführung der SSDs bei der Lesekonsistenz den zweiten und bei der Schreibkonsistenz den ersten Platz belegte.

Bei der Umstellung auf die zufällige 8K-Workload mit 70 % Lesen und 30 % Schreiben steigerte der Tegile HA2300 die Leistung von 2,405 IOPS bei 2T/2Q auf 42,957 IOPS bei 16T/16Q. Bei niedrigeren Thread- und Warteschlangenebenen lag es ungefähr im Mittelfeld, während es unter Volllast den 3. Platz hinter dem HP StoreVirtual 4335-Cluster und dem AMI StorTrends 3500i belegte.

Die durchschnittlichen Latenzergebnisse für den 8k 70/30-Benchmark betrugen 1.65 ms bei einer Last von 2T/2Q und stiegen auf 5.95 ms unter der Spitzenlast von 16T/16Q.

Mit wenigen Ausnahmen verzeichnete der Tegile HA2300 die höchsten Latenzen unter den Arrays, die im 8k 70/30-Benchmark verglichen werden. Die höchste Latenz, die wir für den TA3200 gemessen haben, betrug 4,674.84 ms und trat bei 4T/16Q auf.

Die Standardabweichungsberechnungen des Tegile HA2300 für den 8k 70/30-Benchmark ähneln den Standardabweichungsergebnissen für den 4k-Benchmark: Sie rücken den HA2300 in ein positiveres Licht als die Tabelle mit der maximalen Latenz, stellen den HA2300 aber immer noch als weniger konsistent in Bezug auf die Latenz dar als seine Vergleichsprodukte.

Fazit

Der HA2300 ist in Kombination mit seinem ES2400-Erweiterungsfach äußerst flexibel und ermöglicht es Kunden, alle Festplatten, Flash oder eine Kombination aus beidem zu verwenden, die alle (zusammen mit anderer Hardware) ohne Ausfallzeiten ausgetauscht werden können. Ein intelligenter Caching-Algorithmus verschiebt Hot-Daten auf die schnellere Flash-Ebene, zusammen mit dieser Funktion gibt es eine anwendungsbezogene Bereitstellung, um Volumes für bestimmte Anwendungen festzulegen. Inline-Komprimierungs- und Deduplizierungsfunktionen minimieren den Datenbedarf, der für alle Rechenzentren ein wachsendes Problem darstellt. Der HA2300 unterstützt mehrere Hostplattformen, ist Citrix-fähig und kann in VMware- und Microsoft-Virtualisierungssoftware integriert werden. Der HA2300 von Tegile wird außerdem durch das IntelliCare-Kundenbetreuungsprogramm unterstützt. 

Was die Leistung betrifft, waren die Ergebnisse eher gemischt. In unserer Analyse der Anwendungsleistung lag der HA2300 im VMmark-Benchmark hinter anderen Konkurrenzlösungen und erreichte mit 6 Kacheln den Spitzenwert, während andere 8 oder 10 Kacheln erreichten, oder viel mehr im Fall des DotHill Ultra48 Hybrid-Arrays. Im SQL Server TPC-C-Benchmark landete es mit niedrigerem TPS und höherer Latenz im Vergleich zu anderen Hybridsystemen ganz unten. In synthetischen Tests schnitt das Array deutlich besser ab und belegte sowohl beim 4K-Durchsatz als auch bei der durchschnittlichen 4K-Latenz den dritten Platz. Bei Tests mit maximaler Latenz und Standardabweichung wies der HA2300 jedoch die höchsten Latenzen der getesteten Hybrid-Arrays auf. 

Das Tegile-Array ist daher ein wenig rätselhaft. Einerseits ist es einfach zu implementieren und zu verwalten, verfügt über umfangreiche Datendienste und -funktionen und ist eines der wenigen im Primärspeicherbereich mit Festplatten, die Komprimierung und Deduplizierung ermöglichen. Der daraus resultierende geringere Datenbedarf auf der Festplatte verschafft Tegile einen enormen Wettbewerbsvorteil, wenn es darum geht, die Kosten pro TB sowohl in diesem Array als auch in seinen All-Flash-Hybriden zu diskutieren. Wie wir gesehen haben, gehen Datenreduktionsdienste jedoch mehr oder weniger mit Leistungseinbußen einher. Unabhängig davon, ob die Datenreduzierung aktiviert ist oder nicht, ist mit einem Mehraufwand zu rechnen. Darin liegt der Haken an Tegile.

Für viele Unternehmen ist die Array-Leistung jedoch möglicherweise nicht das primäre Entscheidungskriterium. In vielen ROBO- und Mittelstands-/KMU-Anwendungsfällen sind alle HDD-Arrays für die Anforderungen der Anwendungen völlig ausreichend. Die Wahrheit ist, dass nicht jedes Unternehmen Flash benötigt, zumindest aus Leistungssicht (heben Sie sich das TCO-Argument für ein anderes Mal auf). Der HA2300 seinerseits erfüllt genau diese Anforderungen, bei denen die Kosten pro TB, die einfache Verwaltung und die Datendienste die Leistungsanforderungen überwiegen. Insgesamt handelt es sich jedoch nicht um einen Hochleistungsplayer im Hybridbereich, der derzeit offenbar die Domäne traditioneller Speicherarrays ist, die keine Datenreduzierungsdienste oder vielleicht eines der All-Flash-Hybridangebote von Tegile nutzen. 

Vorteile

  • Bietet Datenreduktionsdienste
  • Starker 4K-Durchsatz und durchschnittliche Latenz
  • Funktionsreiche WebGUI

Nachteile

  • Relativ schwache Leistung von SQL Server und VMmark
  • Inkonsistente Latenz und hohe Spitzenreaktionszeiten

Fazit

Der Tegile HA2300 ist eine Hybrid-Array-Plattform mit einem vielseitigen Funktionsumfang, der durch Inline-Komprimierungs- und Deduplizierungs-Engines gekrönt wird. Seine Stärken liegen in der Konfigurationsflexibilität, den Datendiensten, der Protokollunterstützung und dem überzeugenden Gesamtkostenprofil pro TB, auch wenn die Leistung nicht unbedingt mit vielen seiner Mitbewerber mithalten kann.

Tegile Hybrid-Speicher-Arrays

Besprechen Sie diese Rezension

Melden Sie sich für den StorageReview-Newsletter an