Seit seiner Gründung liegt der Schwerpunkt von Marvell auf der Infrastrukturvernetzung, indem Produkte entwickelt werden, die den Serviceniveaus gerecht werden, die von einer Vielzahl von Anwendungen und unterschiedlichen Arbeitslasten gefordert werden. IT-Architekten müssen nach intelligenter Technologie suchen, die Flexibilität und Skalierbarkeit bietet, um SSD, Flash, große Datenbanken und Virtualisierung zu unterstützen. Marvell ist fest davon überzeugt, dass Fibre Channel (FC) die bevorzugte Technologie für den Speichertransport ist, mit einer FC-Migrationsstrategie für NVMe-oF über FC (FC-NVMe) mit Unterstützung für natives VMware vSphere und ESXi. Diese Technologie ist heute verfügbar, für viele Kunden jedoch nicht erkennbar.
Seit seiner Gründung liegt der Schwerpunkt von Marvell auf der Infrastrukturvernetzung, indem Produkte entwickelt werden, die den Serviceniveaus gerecht werden, die von einer Vielzahl von Anwendungen und unterschiedlichen Arbeitslasten gefordert werden. IT-Architekten müssen nach intelligenter Technologie suchen, die Flexibilität und Skalierbarkeit bietet, um SSD, Flash, große Datenbanken und Virtualisierung zu unterstützen. Marvell ist fest davon überzeugt, dass Fibre Channel (FC) die bevorzugte Technologie für den Speichertransport ist, mit einer FC-Migrationsstrategie für NVMe-oF über FC (FC-NVMe) mit Unterstützung für natives VMware vSphere und ESXi. Diese Technologie ist heute verfügbar, für viele Kunden jedoch nicht erkennbar.
NVMe-oF-Primer
Marvell glaubt, dass FC der Goldstandard für Speichernetzwerke bleiben wird, vor allem weil FC auf eine lange Geschichte der Zuverlässigkeit und Innovation zurückblickt; Es steigert den Wert von FC, indem es sich auf die Einbeziehung der NVMe-oF-Technologie für Fibre Channel konzentriert, um einen Mehrwert für das Unternehmen zu schaffen. Marvell hat mit seinem umfangreichen Produktportfolio, das EBOF, FC-NVMe, DPU, SSD-Controller und NVMe-oF unterstützt, Innovationen stets im Vordergrund gehalten. Angesichts der umfangreichen Produktpalette und ihres Interesses an Netzwerktechnologien hat Marvell uns in sein Labor eingeladen, um einige Leistungstests mit Schwerpunkt auf FC-NVMe, NVMe/TCP und NVMe-RoCEv2 in einer VMware ESXi-Umgebung durchzuführen.
Während Anbieter weiterhin Speicher auf Basis des NVMe-Protokolls einführen, nutzen Unternehmen die Technologie voll und ganz. NVMe-Flash-Arrays werden weltweit in vielen Rechenzentren eingesetzt und nutzen Fibre Channel als bevorzugte Übertragung, da es sich um eine bewährte Technologie für Zuverlässigkeit, Leistung und Sicherheit handelt. NVMe-oF erfreut sich wachsender Beliebtheit, da die NVMe-Arbeitsgruppe den Standard in die Ende 2.0 angekündigte NVMe 2021-Spezifikation integriert hat.
Mit zunehmender Reife der NVMe-oF-Standards integrieren Anbieter die Technologie in Speicher- und Transporthardware und nehmen so Bedenken hinsichtlich der Bereitstellung ab. NVMe-over-Ethernet-Protokolle werden in softwaredefinierten und HCI-Appliances verwendet, da diese normalerweise eine Verbindung zu Ethernet-Netzwerken herstellen. Im SAN werden Unternehmen, die heute Fibre Channel nutzen, auf FC-NVMe umsteigen, während diejenigen, die iSCSI nutzen, wahrscheinlich auf NVMe/TCP umsteigen werden.
FC ist seit Jahrzehnten die Technologie der Wahl für unternehmens- und geschäftskritische Umgebungen, da das Design die Leistungs- und Latenzanforderungen von Blockspeicher-Workloads erfüllt. Der FC unterstützt die Erfüllung der Engpässe SLA für unternehmens- und geschäftskritische Workloads, die äußerst empfindlich auf die Leistung und Verfügbarkeit der zugrunde liegenden Speicherinfrastruktur reagieren. Die Arbeitslasten haben zugenommen, was sich auf die Skalierbarkeit der Infrastruktur ausgewirkt hat. Einer der Hauptschwerpunkte bei steigender Arbeitslast ist natürlich der Zugriff auf Speichersysteme. NVMe über Fibre Channel bietet zahlreiche Leistungs-, Latenz- und Zuverlässigkeitsvorteile. Eine nachhaltige und vorhersehbare Speicherleistung erfordert eine nahtlose Integration und Kompatibilität mit Fibre Channel.
Weitere Optionen für den Aufbau einer IT-Infrastruktur sind Ethernet und Infiniband. Die inhärenten Fähigkeiten von Fibre Channel können jedoch die Infrastrukturleistung der nächsten Generation und die Skalierbarkeitsanforderungen zur Erfüllung von NVMe-Metriken am besten erfüllen. Bedenken Sie, dass Fibre-Channel-Fabrics seit der Veröffentlichung des ANSI-Standards im Jahr 1994 gut etabliert sind und sich ständig weiterentwickelt haben, sodass Fibre-Channel immer noch die führende Netzwerktechnologie für Speichernetzwerke ist. Und NVMe über FC kann gleichzeitig NVMe und SCSI im selben Netzwerk unterstützen.
Wenn Unternehmen auf anspruchsvollere Arbeitslasten wie KI/ML umsteigen, sorgt NVMe über FC für Vorhersehbarkeit der Netzwerkleistung und geringe Latenz. Anbieter bieten Switch-Technologie an, die gleichzeitig FC-NVMe, SCSI/FC und native SAN-Fabrics unterstützt. Die Integration von Netzwerkkomponenten, die FC-NVMe unterstützen, ist recht einfach und erfordert in der Regel keine zusätzliche Hardware. Wenn es sich bei der aktuellen Implementierung um ein FC-SAN handelt, das mit 16GFC oder mehr betrieben wird, sind NVMe-Befehle in FC gekapselt. Über das mögliche Ändern oder Hinzufügen von NVMe-Zielfestplatten hinaus kann ein Firmware- oder Treiber-Update für den HBA oder das Systembetriebssystem erforderlich sein.
VMware und FC-NVMe
VMware ESXi 7.0+ unterstützt NVMe über Fibre Channel (FC-NVMe) und NVMe über RDMA Converged Ethernet (NVMe-RoCE). NVMe-RDMA und NVMe-RoCE sind im Wesentlichen gleich und manchmal austauschbar. VMware hat kürzlich ESXi 7.0 U3 mit Unterstützung für NVMe/TCP veröffentlicht. Bei Workloads, die in einer VMware vSphere- oder ESXi-Umgebung ausgeführt werden, ist die Integration von FC-NVMe unkompliziert und ähnelt einer herkömmlichen FC-Implementierung. Die folgenden Screenshots veranschaulichen die Ähnlichkeiten bei der Konfiguration von HBAs zur Unterstützung von FC und FC-NVMe.
Die richtigen Marvell QLogic QLE2772 Dual-Port 32Gb FC-Adapter und NetApp AFF A250, um traditionelle FC-LUNs und NVMe-Namespaces vorzustellen, können wir zeigen, wie nahtlos es für einen Endbenutzer ist, jeden Speichertyp bereitzustellen. Wenn der Speicher entsprechend auf der Fibre-Channel-Fabric zu einem VMware-Host zoniert ist, erstellt derselbe Arbeitsablauf einen Datenspeicher.
Hinter den Kulissen präsentiert sich die Dual-Port-Karte als vier Geräte. Zwei sind für herkömmlichen FC-Speicher, die anderen für NVMe. In unserem Screenshot sind vmhba2/3 Standard-FC-Geräte und vmhba67/68 für NVMe. Es ist zu beachten, dass diese automatisch in VMware ESXi 7 mit den integrierten Treibern und der aktuellen Firmware angezeigt werden und keine einmalige Installation erforderlich ist. In der VMware-Dokumentation wird empfohlen, bei der Installation Standardeinstellungen zu akzeptieren. In unserer ersten Ansicht ist das herkömmliche Fibre-Channel-Gerät ausgewählt und zeigt eine 1-TB-NetApp-Fibre-Channel-Festplatte an, die „nicht verbraucht“ ist.
Wenn wir die Ansicht zur Marvell QLogic NVMe-Ansicht wechseln, sehen wir eine weitere 1-TB-NVMe-Fibre-Channel-Festplatte, die ebenfalls nicht verbraucht ist. Die vSphere-Ausgabe enthält Optionen für Namespaces und Controller, um zu definieren, wie das System auf die LUN zugreift.
In der NVMe-Namespace-Ansicht werden normalerweise mehrere Geräte angezeigt. Allerdings haben wir in unserem Test ein einzelnes 1-TB-Gerät bereitgestellt.
In der Ansicht „Controller“ werden die NetApp ONTAP NVMe-Controller angezeigt und präsentieren die Geräte den zugeordneten Hosts. Die Option „Controller hinzufügen“ steht zum manuellen Hinzufügen eines neuen Controllers zur Verfügung, obwohl VMware ESXi 7 diese automatisch erkennt, wenn er entsprechend einem bestimmten FC-WWN zugewiesen wird.
Dieser nächste Schritt umfasst die Konfiguration des Speichers. ESXi bietet ein „New Datastore“-Tool, mit dem Sie ganz einfach einen Datenspeicher zum System hinzufügen können. In unserem Host-Setup stehen uns sowohl FC- als auch FC-NVMe-Speichertypen als Optionen zur Verfügung, was zeigt, wie unkompliziert die Konfiguration für einen Endbenutzer ist. Zuerst wählen wir das NVMe-Gerät für unseren Test aus, um einen entsprechend benannten Datenspeicher zu erstellen und fahren mit dem nächsten Schritt fort.
Der NVMe-Datenspeicher verfügt über denselben VMFS-Auswahlprozess, bei dem der Benutzer zwischen VMFS 6 und einer älteren VMFS 5-Version wählen kann.
Als nächstes wird die Festplatte für den Datenspeicher partitioniert, wobei der gesamte verfügbare Speicherplatz auf dem Gerät genutzt wird.
Nach diesen wenigen Schritten ist es an der Zeit, den neuen FC-NVMe-Datenspeicher zu erstellen. Während des gesamten Prozesses zeigt ESXi wichtige Informationen an, die dabei helfen, diesen Prozess korrekt durchzuführen.
Die Schritte zum Erstellen von FC-Speicher sind die gleichen wie oben beschrieben für FC-NVMe. Wählen Sie zunächst das verfügbare FC-Gerät aus.
Wählen Sie dann die VMFS-Version.
Wenn die VMFS-Version ausgewählt ist, besteht der nächste Schritt darin, den Datenspeicher zu partitionieren, wobei wiederum der gesamte verfügbare Speicherplatz auf dem Gerät genutzt wird.
Die Ausgabe auf dem Zusammenfassungsbildschirm zeigt das NetApp-Fibre-Channel-Gerät anstelle des NVMe-Fibre-Channel-Geräts, aber der Workflow, um zu diesem Punkt zu gelangen, ist für beide derselbe.
Die von uns erstellten neuen Datenspeicher werden in der Datenspeicherliste für den Host angezeigt und können für die VM-Speicherung verwendet werden.
FC-NVMe-Leistung
Um die Gesamtleistung zwischen FC-NVMe vs. NVMe-RoCE vs. NVMe/TCP zu veranschaulichen, hat Marvell die Ergebnisse basierend auf leichten, mittleren und hohen Arbeitslasten gemessen. Die Leistungsergebnisse waren bei allen drei Arbeitslasten ziemlich konsistent, wobei NVMe/TCP hinter FC-NVMe und NVMe-RoCE zurückblieb. Das Testlayout wurde wie unten gezeigt konfiguriert.
Die Latenzanalyse bei der Ausführung geringer Arbeitslasten verdeutlichte die TCP-inhärente Latenz. Bei der Messung zufälliger Blockgrößen schnitt NVMe-RoCE besser ab, während FC-NVMe knapp dahinter landete. Bei simulierten 8K-Lesevorgängen hatte NVMe/TCP fast die doppelte Fabric-Latenz von FC-NVMe.
In einer Umgebung mit mittleren Arbeitslasten war FC-NVMe beim Vergleich von FC-NVMe mit NVMe/TCP am leistungsstärksten. Die Ergebnisse waren beeindruckend: FC-NVMe lieferte rund 127 Prozent mehr Transaktionen als NVMe/TCP. Die Latenzzahlen spiegeln die Dominanz von FC-NVMe mit einer um 56 Prozent geringeren Latenz als bei NVMe/TCP wider.
Bei der Messung des Stressniveaus in einer Simulation mit hoher Arbeitslast zeigte FC-NVMe durchweg eine bessere Leistung als Ethernet-basierte Fabrics. FC-NVMe lieferte im Vergleich zu NVMe/TCP eine um 50 Prozent höhere Bandbreite, erforderte aber, was noch wichtiger ist, deutlich geringere CPU-Zyklen, wodurch der VMware ESXi-Server für das Hosten von mehr VMs frei wurde.
Abschließende Überlegungen
Die Einfachheit der Konfiguration von FC und NVMe-oF in einer virtualisierten Umgebung wurde in den Screenshots oben veranschaulicht. Den meisten Benutzern ist die einfache Implementierung von FC und FC-NVMe auf ESXi-Systemen nicht vollständig bewusst. VMware bietet eine einfache Option zum Konfigurieren und Verwalten vertrauenswürdiger FC-Vorteile, ohne dass neue Komplexitäten entstehen.
Obwohl wir in unserem Labor NetApp-Hardware verwendet haben, um die einfache Konnektivität hervorzuheben, gibt es eine Vielzahl anderer Anbieter, die FC NVMe-oF unterstützen. Marvell hat eine Liste von Anbietern zusammengestellt und diese auf seiner Website veröffentlicht. Wenn Sie die vollständige Liste sehen möchten, klicken Sie bitte HIER.
Weitere Informationen zu den Marvell FC-NVMe-Adaptern finden Sie durch Klicken auf deren Website HIER. Sie können auch die NVM Express-Website besuchen, um sich die neuesten Spezifikationen anzusehen und zu sehen, was als nächstes für NVMe kommt HIER.
Dieser Bericht wird von Marvell gesponsert. Alle in diesem Bericht geäußerten Ansichten und Meinungen basieren auf unserer unvoreingenommenen Sicht auf das/die betrachtete(n) Produkt(e).
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS Feed