Bisher haben wir tauchte tief in den Microsoft Azure Stack HCI ein, die On-Premise-Implementierung des Azure-Clouddienstes von Microsoft. Azure Stack HCI kann als Plattform angesehen werden, die das Beste aus beiden Welten vereint. Es verfügt über alle Verwaltungstools von Azure wie Azure Monitor, Azure Security Center, Azure Update Management, Azure Network Adapter und Azure Site Recovery, speichert die Daten jedoch vor Ort und erfüllt bestimmte Vorschriften. Azure Stack HCI ist in drei Teile gegliedert: softwaredefinierte Architektur, Azure-Dienste und Hardware.
Bisher haben wir tauchte tief in den Microsoft Azure Stack HCI ein, die On-Premise-Implementierung des Azure-Clouddienstes von Microsoft. Azure Stack HCI kann als Plattform angesehen werden, die das Beste aus beiden Welten vereint. Es verfügt über alle Verwaltungstools von Azure wie Azure Monitor, Azure Security Center, Azure Update Management, Azure Network Adapter und Azure Site Recovery, speichert die Daten jedoch vor Ort und erfüllt bestimmte Vorschriften. Azure Stack HCI ist in drei Teile gegliedert: softwaredefinierte Architektur, Azure-Dienste und Hardware.
Die Wahl der richtigen Hardware ist wichtig, wie wir in unserem Artikel ausführlich dargelegt haben: „Die Bedeutung der Hardware in Microsoft Azure Stack HCI.“ Der erste Schritt zur Bereitstellung von Azure Stack HCI wäre die Suche nach einem zertifizierten Hardwareanbieter, in diesem Fall DataON. DataON pflegt seit mehreren Jahren eine starke Partnerschaft sowohl mit Microsoft als auch mit Intel und bringt diese Partnerschaft im Hardware-Layout für Azure Stack HCI in einer Intel Select-Konfiguration zur vollständigen Verwirklichung. Ein interessanter Aspekt der Partnerschaft mit Intel ist die Möglichkeit, das PMEM des Unternehmens (und natürlich seine neuesten Prozessoren) mit Azure Stack HCI zu nutzen.
In vielen Fällen werden die DataON HCI Intel Select-Lösungen konfiguriert und in einem eigenen Rack geliefert, sodass sie sofort einsatzbereit sind. Diese Bereitstellungsmethode ist besonders nützlich am Rande, wo die vorhandene IT-Infrastruktur begrenzt oder nicht vorhanden ist. Im StorageReview-Labor haben wir die vier Speicher- und Rechenknoten, den Domänencontroller und die Switches wie unten dargestellt bereitgestellt.
Aufbau und Design
Der von uns getestete Microsoft Azure Stack HCI-Cluster basiert auf der DataON HCI-224 All Flash NVMe-Plattform. Diese Server haben eine Größe von 2 HE und verfügen über 24 NVMe-Schächte an der Vorderseite und bieten auf der Rückseite reichlich Erweiterungsmöglichkeit für PCIe-basierte Komponenten. Die Beschriftung ist im Gegensatz zu den mattschwarzen Laufwerksträgern kontrastreich und erleichtert das Erkennen bestimmter Laufwerke, wenn es an der Zeit ist, sie auszutauschen. Alles ist beschriftet, was nicht ungewöhnlich ist, aber das Ausmaß der Kennzeichnung schon. Bei unserer Bereitstellung ist jeder Knoten mit (1 bis 4) gekennzeichnet, außerdem gibt es eine Reihe weiterer Elemente, die die Bereitstellung und Verwaltung im Rechenzentrum vereinfachen.
Unsere Konfiguration war mit 48 NVMe-SSDs oder 12 pro Knoten ausgestattet. Dazu gehörten vier Intel Optane P375X SSDs mit 4800 GB und acht Intel P4510 2 TB SSDs.
Auf der Rückseite befinden sich zwei Dual-Port-100G-Mellanox-Connect-X-5-NICs, die über zwei Mellanox-100G-Switches (SN2100) eine vollständig redundante Verbindung für den Cluster-Netzwerkverkehr bieten. In unserer Studiofotografie nicht dargestellt sind alle Anschlüsse mit vollständiger Beschriftung an jedem Ende des entsprechenden Netzwerkkabels, um eine fehlerfreie Verkabelung in der Bereitstellungsphase zu ermöglichen.
Bisher hatten wir noch nie eine Lösung mit diesem Umfang an Dokumentation auf dem Etikett. Microsoft und DataON machen die Bereitstellung von Azure Stack zu einem unkomplizierten Prozess, sodass Kunden sofort betriebsbereit sein können. Jedes Kabel ist je nach Verwendungszweck farblich gekennzeichnet und weist eine Kennzeichnung auf, wo jedes Ende hinführt. In Kombination mit dem maßgeschneiderten Datenblatt, das DataON seinen Kunden zur Verfügung stellt, ist eine nahezu fehlerfreie Bereitstellung gewährleistet. Bei unserer Bereitstellung wurde das System vor der Auslieferung mit IP-Adressen vorkonfiguriert, wobei die IP-Adressen für die Verwaltung und IPMI gekennzeichnet waren.
Management und Benutzerfreundlichkeit
Für Käufer, die einen Hyper-V-Shop unter Windows Server betreiben, wird der Microsoft Azure Stack HCI ein einfacher Umstieg sein. Es sind viele der gleichen Verwaltungstools vorhanden, von denen viele einen integrierteren und einfacheren Workflow bieten. In unserem Überprüfungsprozess nutzten wir sowohl den Windows Failover Cluster Manager zur Verwaltung des DataOn HCI-Clusters als auch das Windows Admin Center, um Arbeitslasten zu überwachen und ihre Leistung zu sehen.
Als wir uns zunächst mehr von der Knotenebene ansahen, indem wir eine Microsoft Remote Desktop (RDP)-Sitzung durchführten, die bei einem der Knoten angemeldet war, schauten wir uns den Windows Failover Cluster Manager an. Dies bietet sowohl Verwaltungsfunktionen auf Knotenebene als auch Transparenz auf Clusterebene. Diese Art des Zugriffs wäre eher auf die Erstbereitstellung ausgerichtet, bei der die tägliche Überwachung über das Windows Admin Center erfolgen würde.
Zuerst klicken wir auf unseren jeweiligen Cluster und erhalten allgemeine Informationen darüber, die Möglichkeit, ihn zu konfigurieren, und einen Blick auf die Ressourcen. Dadurch erhalten Sie eine zusammenfassende Ansicht des ausgewählten Clusters, sodass Sie sehen können, wo Probleme liegen, und mit der Analyse bestimmter Bereiche beginnen können.
Als nächstes geht es um Failover-Rollen. Hier sehen wir alle Hyper-V-VMs, die im Cluster ausgeführt werden. Dargestellt sind die vielen vmfleet-VMs, die wir für den Stresstest des Clusters verwendet haben.
Mithilfe von Netzwerken können wir sehen, welche Cluster-Netzwerke verfügbar sind und welchen Status sie haben. Wenn Sie ein Cluster-Netzwerk auswählen, können Sie die ihm zugeordnete zugrunde liegende Netzwerkkarte sowie seine IP-Adresse sehen.
Unter der Speicheroption befinden sich Festplatten, Pools und Gehäuse. Bei Festplatten kann man auf virtuelle Festplatten klicken und Informationen wie Status, Zuweisungsort, Eigentümerknoten, Festplattennummer, Partitionsstil und Kapazität abrufen. Benutzer können auch etwas tiefer gehen und noch mehr Informationen wie Pool-ID, Name und Beschreibung sowie ID, Name und Beschreibung der virtuellen Festplatte, Gesundheits- und Betriebsstatus und Ausfallsicherheit anzeigen.
Pools sind ähnlich, mit Informationen zu bestimmten Speicherpools wie Status, Zustand, Eigentümerknoten, Betriebszuständen und Gesamtkapazität sowie freiem und genutztem Speicherplatz.
Unter Knoten kann man leicht alle Knoten im Cluster und deren Status sehen.
Rechts kann man zu Failover-Festplatten wechseln und unten die einzelne Festplatte für einen bestimmten Knoten sehen.
In derselben Seitenleiste kann man sich auch das Netzwerk für einen bestimmten Knoten ansehen.
Während es sich bei dem Windows Failover Cluster Manager um ein eher auf Details ausgelegtes Verwaltungsgerät handelt, müssen Benutzer über Windows Remote Desktop eine Verbindung zu einem Server selbst (oder einem anderen mit diesem Cluster verbundenen Server) herstellen, um damit arbeiten zu können. Während dieser Verwaltungsstil für viele Zwecke in Ordnung ist, hat Microsoft die Dinge mit einer neuen Plattform namens Windows Admin Center einfacher gemacht. Im Gegensatz zum Failover-Cluster-Manager basiert das Windows Admin Center vollständig auf einem Webbrowser, was die Verbindung von jedem Computer oder Tablet am Arbeitsplatz aus erleichtert. Es bietet außerdem ein modernisiertes und ästhetisch ansprechendes Erscheinungsbild, wodurch die tägliche Überwachung zu einer angenehmeren Aufgabe wird. Es bietet einen Einblick in viele der gleichen Informationen, wobei der Schwerpunkt stärker auf der Aktivitätsüberwachung liegt, die Failover Cluster Manager nicht im gleichen Umfang bietet.
Sobald Windows Admin Center einem Cluster zugeordnet ist, können Sie einen Drilldown in bestimmte Bereiche durchführen, um Vorgänge anzuzeigen und zu verwalten. Hier sehen wir Informationen zur gesamten Rechenleistung des Clusters, die die Gesamtressourcen verfolgen, die die VMs nutzen.
Während sich das Windows Admin Center hervorragend zum Anzeigen von Aktivitäten eignet, können Sie dennoch mit VMs in Ihrem Cluster interagieren. Im Folgenden schalten wir eine Reihe von vmfleet-VMs ein.
Benutzer können auch Informationen zu bestimmten VMs abrufen.
Unter „Rollen“ erhalten wir eine etwas andere Sicht auf Rollen, aber größtenteils die gleichen Schlüsselinformationen.
Unter „Einstellungen“ können Benutzer Erweiterungen für Azure herunterladen, installieren und aktualisieren.
Über das Windows Admin Center können wir auch in den Hyper-Converged Cluster Manager gehen, um einen genaueren Blick auf Rechenleistung und Speicher zu werfen. Wir öffnen das Dashboard, das allgemeine Informationen wie die Anzahl der Server, Laufwerke, VMs, Volumes sowie die Nutzung von CPU, Arbeitsspeicher und Speicher enthält. Am unteren Rand des Dashboards wird die Clusterleistung angezeigt, aufgeschlüsselt nach einem bestimmten Zeitrahmen sowie IOPS und Latenz.
Unter Computing können Administratoren selbst einen Drilldown auf die Server durchführen, um sie zu verwalten und den Server beispielsweise aus dem Cluster zu entfernen. Hier finden Sie allgemeine Informationen zum verwendeten Server wie Betriebszeit, Standort, Domäne, Hersteller, Modell, Seriennummer, Betriebssystemname, Version und Build-Nummer. Außerdem können Benutzer die serverspezifische Leistung anzeigen.
Durch Klicken auf die Registerkarte „Volumes“ gelangen Benutzer zu einer Zusammenfassung aller Volumes im Cluster. Der Zustand der Volumes ist farblich gekennzeichnet: Grün für fehlerfrei, Rot für kritisch und Gelb für Warnung. Die Leistung wird auch für alle Volumes verfolgt, aufgeschlüsselt nach Zeitrahmen und in IOPS, Latenz und Durchsatz.
Ein Drilldown auf ein einzelnes Volume liefert spezifische Eigenschaften des Volumes, einschließlich Status, Dateisystem, Pfad, Fehlerdomänenerkennung, Gesamtgröße, genutzte Größe, Ausfallsicherheit und Footprint. Es gibt optionale Funktionen (Deduplizierung und Komprimierung sowie Integritätsprüfsummen), die hier ein- oder ausgeschaltet werden können. Die Kapazität wird grafisch dargestellt und zeigt die genutzte und die verfügbare Kapazität an. Und wieder sehen wir Leistung.
Unter der Registerkarte „Laufwerke“ erhalten wir eine Zusammenfassung aller Laufwerke im System. Hier sehen wir die Gesamtzahl der Laufwerke und ob es Warnungen mit derselben Farbcodierung wie die Volumes gibt. Wir können auch die Kapazität sehen: genutzt, verfügbar und reserviert.
Wenn wir auf „Inventar“ klicken, erhalten wir eine Liste aller Laufwerke und mehrere Details. Zu den Details gehören der Status des Laufwerks, sein Modell, die Kapazitätsgröße, der Typ, der Verwendungszweck und die verwendete Speichermenge.
Wir können einen Drilldown zu einem einzelnen Laufwerk durchführen und Eigenschaften wie Status, Standort, Größe, Typ, Verwendungszweck, Hersteller, Modell, Seriennummer, Firmware-Version und den Speicherpool, in dem es sich befindet, anzeigen. Wir können die Menge der genutzten Kapazität sehen im Vergleich zur Verfügbarkeit für das einzelne Laufwerk und seine Leistung in Bezug auf IOPS, Latenz und Durchsatz.
Unterhalb der Leistung können wir auch Laufwerkslatenz- und Fehlerstatistiken sehen.
Kennzahlen
Die Leistung innerhalb des Microsoft Azure Stack-Ökosystems war schon immer großartig, eine Stärke, die sich seit den Storage Spaces-Tagen durchgesetzt hat. Vor diesem Hintergrund haben wir uns in diesem Test einige gängige Benchmarking-Workloads angesehen, damit Benutzer sehen können, wie gut diese Plattform im Vergleich zu anderen HCI-Lösungen auf dem Markt abschneidet. Vor diesem Hintergrund haben wir Workloads verwendet, um zufällige kleine Blockgrößen sowie große Blockübertragungen hervorzuheben, um zu zeigen, welches Potenzial diese Microsoft-Lösung bieten kann. In unserem Azure Stack HCI-Test haben wir vmfleet für Leistungsbenchmarks genutzt, während wir auf VMware oder Bare-Metal-Linux vdbench verwendet haben.
Für die Leistung hier haben wir das System sowohl mit 2-Wege-Spiegel als auch mit 3-Wege-Spiegel getestet. Der Spiegel bezieht sich auf die Methode des Datenschutzes (entweder zwei Kopien oder drei Kopien). Offensichtlich verlieren Benutzer mit mehr Kopien etwas an Kapazität. Aus Leistungssicht sollte 3-Wege durch die Erhöhung der Parallelität zu besseren Lesevorgängen führen und 2-Wege ist besser für die Schreibleistung mit einem Drittel weniger Netzwerkverkehr.
Bei unserem 4K-Zufallstest verzeichnete der 2-Wege-Spiegel einen Lesedurchsatz von 2,204,296 IOPS bei einer durchschnittlichen Latenz von 247 µs und einen Schreibdurchsatz von 564,601 IOPS bei einer durchschnittlichen Latenz von 3.69 ms. Beim 3-Wege-Gerät wurde ein Lesedurchsatz von 2,302,610 IOPS bei einer durchschnittlichen Latenz von 170 µs und beim Schreiben ein Durchsatz von 338,538 IOPS bei einer durchschnittlichen Latenz von 9.12 ms erzielt. Um dies etwas ins rechte Licht zu rücken: Das vSAN-Angebot von VMware mit zwei Optane-SSDs und vier NVMe-Kapazitäts-SSDs pro Knoten erreichte in der Spitze 521 IOPS beim 4K-Lesen und 202 IOPS beim Schreiben.
Als nächstes schauen wir uns unseren sequenziellen 32K-Benchmark an. Bei den Lesevorgängen sahen wir beim 2-Wege-Treffer 42.59 GB/s und beim 3-Wege-Treffer 39.48 GB/s. Für Schreibvorgänge lieferte uns das HCI 13.8 GB/s für den 2-Wege-Modus und 7.19 GB/s für den 3-Wege-Modus.
Wir setzen unsere sequentielle Arbeit fort und fahren mit unseren 64K-Tests fort. Hier erreichte der 2-Wege-Vorgang 39.5 GB/s beim Lesen und 15.24 GB/s beim Schreiben und der 3-Wege-Vorgang erreichte 46.47 GB/s beim Lesen und 7.72 GB/s beim Schreiben. Im Vergleich zu vSAN sind die Unterschiede bei der Lesebandbreite nicht einmal annähernd so groß, wo die Bandbreite in den Tests bei knapp über 5.3 GB/s bei einer Blockgröße von 64 KB lag. Bei der Schreibbandbreite gab es einen ähnlichen Unterschied, wobei vSAN mit 2.55 GB/s die Spitze erreichte.
Unser nächster Benchmark ist SQL mit gemischter Lese-/Schreibleistung. Hier hatte der 2-Wege einen Durchsatz von 1,959,921 IOPS bei einer durchschnittlichen Latenz von 324 µs. Der 3-Wege erreichte 1,929,030 IOPS mit einer durchschnittlichen Latenz von 185 µs. Der SQL-Workload ist ein weiterer Bereich, in dem Azure Stack HCI seine Stärke ausspielen kann und knapp 2 Millionen IOPS misst, während VMwares vSAN im gleichen Workload-Profil 321 IOPS misst.
Mit SQL 90-10 erreichte die 2-Wege-Lösung 1,745,560 IOPS mit einer durchschnittlichen Latenz von 411 µs und die 3-Wege-Lösung erreichte 1,547,388 IOPS und 285 µs Latenz.
Für SQL 80-20 hatte der 2-Wege-Durchsatz einen Durchsatz von 1,530,319 IOPS bei 581 µs Latenz. Der 3-Wege erreichte 1,175,469 IOPS und 681 µs Latenz.
SPECsfs
Als nächstes folgt unser SPECsfs 2014 SP2 Benchmark – ein neuer Test für uns hier. SPECsfs ist eine Benchmark-Suite, die den Durchsatz und die Antwortzeit von Dateiservern misst. Der Benchmark bietet uns eine standardisierte Methode zum Vergleich der Leistung verschiedener Anbieterplattformen. Der Benchmark funktioniert, indem er eine Skala festlegt und erhöht, bis die Punktlatenz für die Spezifikationen des Benchmarks zu groß ist. Hier betrachten wir den Umfang, der bis zur Überschreitung von 11 ms erreicht werden kann, sowie die Bandbreite, die der Server erreicht, wenn er die Latenzzahl nicht erreicht.
Wir werden uns hier zunächst mit der Latenz befassen, da diese mehr Aufschluss darüber gibt, warum die Bandbreite dort aufgehört hat, wo sie im zweiten Teil aufgehört hat. Die Skala und ihre Latenzen sowohl für den 2-Wege- als auch den 3-Wege-Modus sind in der folgenden Tabelle aufgeführt:
SPECsfs-Latenz (ms) | ||
---|---|---|
Skalieren | DataON HCI-224 2-Wege-Spiegel | DataON HCI-224 3-Wege-Spiegel |
100 | 0.243 | 0.262 |
200 | 0.329 | 0.371 |
300 | 0.466 | 0.499 |
400 | 0.636 | 0.699 |
500 | 0.753 | 0.896 |
600 | 0.953 | 1.083 |
700 | 1.113 | 1.314 |
800 | 1.326 | 1.557 |
900 | 1.501 | 1.826 |
1000 | 1.88 | 2.167 |
1100 | 2.061 | 2.807 |
1200 | 2.323 | 4.64 |
1300 | 2.749 | 8.557 |
1400 | 5.47 | 10.449 |
1500 | 8.616 | 11.285 (nicht bestanden) |
1600 | 10.485 | 11.414 (nicht bestanden) |
1700 | 11.069 | |
1800 | 11.697 (nicht bestanden) | |
1900 | 12.51 (nicht bestanden) |
Wie man sehen kann, starteten beide Konfigurationen bei etwa 250 µs, die 2-Wege-Konfiguration lag etwas darunter und blieb die ganze Zeit über so. Bei einer Skala von 1500 scheiterte der 3-Wege-Test bei 11.285 ms, was einem Bereich von 262 µs bis 10.45 ms entspricht. Der 2-Wege-Test scheiterte bei einer Skala von 1800 und erreichte 11.7 ms, was einen Bereich von 243 µs bis 11.07 ms ergibt.
Die nächste Tabelle zeigt die Bandbreite für jede Konfiguration bei jedem Build, wobei der oben aufgeführte Fehler bei der Latenz auftritt.
SPECsfs-Bandbreite (KB/s) | ||
Skalieren | DataON HCI-224 2-Wege-Spiegel | DataON HCI-224 3-Wege-Spiegel |
100 | 300897 | 300880 |
200 | 600372 | 600857 |
300 | 901672 | 902964 |
400 | 1202779 | 1203106 |
500 | 1504492 | 1503394 |
600 | 1805952 | 1806455 |
700 | 2105973 | 2108432 |
800 | 2408183 | 2406171 |
900 | 2710895 | 2707106 |
1000 | 3007499 | 3009280 |
1100 | 3308648 | 3308168 |
1200 | 3608244 | 3610219 |
1300 | 3910414 | 3888303 |
1400 | 4212976 | 4026720 |
1500 | 4513454 | 4000079 (nicht bestanden) |
1600 | 4587183 | 4229678 (nicht bestanden) |
1700 | 4621067 | |
1800 | 4630352 (nicht bestanden) | |
1900 | 4569824 (nicht bestanden) |
Bei der Bandbreite liefen beide Konfigurationen Kopf an Kopf mit 300 MB/s-Intervallen, bis die 3-Wege-Konfiguration die Latenzzeit mit einer endgültigen Durchlassbandbreite von 4.02 GB/s verfehlte und die 2-Wege-Konfiguration eine endgültige Durchlassbandbreite von 4.62 GB/s aufwies. S.
Fazit
Es ist schon einige Zeit her, dass wir uns so intensiv mit irgendetwas im speicherzentrierten Microsoft-Stack beschäftigt haben. Und Junge, sind wir froh, zurück zu sein? Mit der umbenannten Microsoft Azure Stack HCI-Lösung hat Microsoft etwas getan, das so grundlegend und grundlegend ist, dass man es leicht unterschätzt. Microsoft hat die Bedienung seiner HCI-Lösung denkbar einfach gestaltet, ohne dass irgendetwas überlagert wird, was die Leistung beeinträchtigt. Wie aus unseren Zahlen hervorgeht, hat der von uns getestete DataON-Cluster enorme Zahlen erzielt, die schnellsten, die wir bei einem 4-Knoten-HCI-Cluster der Mittelklasse gesehen haben. Fairerweise muss man sagen, dass wir auch nicht einmal die neueste und beste Hardware von DataON testen. Während diese Konfiguration mit Intel Optane DC SSDs eindeutig kein Problem darstellt, bietet DataON schnellere Lösungen, die die Vorteile von Intel Xeon CPUs der 2. Generation, persistentem Speicher und schnellerer Netzwerkfähigkeit nutzen. Die Tatsache, dass in einer Azure Stack HCI-Lösung noch mehr Leistung verfügbar ist, ist aufregend, aber es ist auch wichtig zu bedenken, dass die Lösung auch auf Bereitstellungen kleinerer Größe herunterskaliert werden kann HCI mit zwei Knoten die schalterlos für eine kostengünstige Edge- oder SMB-Lösung konfiguriert werden kann.
Bei näherer Betrachtung der Leistungszahlen konnte festgestellt werden, dass der Microsoft Azure Stack HCI-Cluster eine unglaubliche Menge an E/A und Bandbreite bieten konnte. Im Vier-Ecken-Bereich haben wir mit einer 2.3-Wege-Spiegelkonfiguration mehr als 4 Mio. IOPS beim 3K-Zufallslesen und 338 IOPS beim 4K-Zufallsschreiben gemessen. Wenn Sie eine höhere Schreibleistung benötigen, konnte eine 2-Wege-Spiegelkonfiguration die 4K-Zufallsschreibgeschwindigkeit auf 564 IOPs steigern. Was jedoch die Bandbreite angeht, sticht der Microsoft Azure Stack wirklich hervor. Bei unserem sequentiellen Transfer-Workload mit 64 KB-Blöcken maß der 2-Wege-Spiegel 39.5 GB/s beim Lesen und 15.24 GB/s beim Schreiben, während der 3-Wege-Spiegel 46.47 GB/s beim Lesen und 7.72 GB/s beim Schreiben maß. Dies übertrifft bei weitem das, was wir bei früheren HCI-Clustern gemessen haben.
Insgesamt erwies sich die Azure Stack HCI-Lösung von Microsoft als einfach bereitzustellen, einfach zu verwalten und außergewöhnlich leistungsfähig – genau das, was Sie sich wünschen. Als Lösungspartner zeichnete sich DataON dadurch aus, dass es einen schlüsselfertigen Aufbau lieferte und spezifikationsgerechte Hardware mit klaren Anweisungen anbot, die schließlich in einer Konfiguration verkauft wurde, die in kürzester Zeit einsatzbereit ist. Kunden können in vielen Fällen sogar auf die Verkabelung verzichten, sodass es wirklich auf den konkreten Bedarf ankommt. In jedem Fall erwies sich Azure Stack HCI in Kombination mit Intel Optane, Intel NVMe SSDs und Mellanox 100G-Netzwerken jedoch als eine Kraft, mit der man rechnen muss.
Besprechen Sie diese Rezension
Melden Sie sich für den StorageReview-Newsletter an