In diesem ausführlichen Artikel bieten wir eine praxisnahe NVIDIA® H100 GPU-Leistungsanalyse für Western Digital OpenFlex™ Data24. Durch die Aktivierung direkter Datenpfade zwischen GPU-Speicher und Speicher reduziert OpenFlex Data24 die Latenzzeit erheblich und maximiert die Bandbreite.
Dieser Bericht wird von Western Digital gesponsert. Alle in diesem Bericht geäußerten Ansichten und Meinungen basieren auf unserer unvoreingenommenen Sicht auf das/die betrachtete(n) Produkt(e).
KI ist derzeit in aller Munde, und während einige Hyperscaler maßgeschneiderte Lösungen für ihr KI-Datenproblem entwickeln, hat Western Digital (WD) eine Antwort für den Rest von uns. Der Western Digital OpenFlex™ Data24™ bietet eine robuste und skalierbare Speicherlösung, die den hohen Durchsatzanforderungen von KI und anderen GPU-beschleunigten Workloads gerecht wird. Durch die Aktivierung direkter Datenpfade zwischen GPU-Speicher und Speicher reduziert OpenFlex Data24 die Latenzzeit erheblich. Darüber hinaus maximiert es die Bandbreite und gewährleistet eine effiziente Datenverarbeitung und optimale GPU-Auslastung für eine schnellere und effektivere Verarbeitung großer Datensätze.
Durch die Nutzung von NVMe-oF™ kann Western Digital disaggregierten Hochgeschwindigkeitsspeicher auf mehreren Servern gemeinsam nutzen und so einen schnellen Datenzugriff und -transfer gewährleisten. Die nahtlose Integration von OpenFlex Data24 mit Hochleistungs-GPUs ermöglicht es, den immensen Durchsatz zu liefern, der für KI-Training und -Inferenz erforderlich ist, und positioniert es damit als Schlüsselfaktor für Rechenzentrumsabläufe der nächsten Generation. Diese Funktionen machen OpenFlex Data24 zu einem leistungsstarken Tool für jedes Unternehmen, das das volle Potenzial von KI und anderen fortschrittlichen Rechenlasten ausschöpfen möchte.
Western Digital OpenFlex Data24 4000
Die NVMe-oF-Speicherplattform der OpenFlex Data24 4000-Serie von Western Digital bietet beispiellose Leistung für gemeinsam genutzte Speicherumgebungen. Diese Hochleistungsplattform erweitert die Funktionen von NVMe™-Flash und ermöglicht die gemeinsame Nutzung mit geringer Latenz über eine Ethernet-Struktur. Die Data24 4000-Serie nutzt sechs Western Digital RapidFlex™ A2000 Fabric Bridge-Geräte, um eine nahtlose Netzwerkkonnektivität über bis zu zwölf 100GbE-Ports zu ermöglichen. Diese Schnittstellen unterstützen sowohl RoCEv2 und TCP-Protokolle und bieten vielseitige Optionen für die Datenübertragung.
Das Gehäuse ist in einem 2U-Formfaktor konzipiert und bietet Platz für bis zu 24 Dual-Port U.2 NVMe SSDs. Mit Unterstützung für PCIe® Gen4 ist diese Plattform so konzipiert, dass die Leistung jeder SSD voll ausgeschöpft wird und im gesamten Gehäuse eine hohe Bandbreite aufrechterhalten wird. Die NVMe SSDs sind in verschiedenen Kapazitäten und Ausdaueroptionen erhältlich, darunter die Ultrastar® DC SN655 SSDs mit bis zu 15.36 TB Kapazität für eine Gesamtrohkapazität von 368 TB¹.
Das Design der Plattform verhindert Überbuchungen und gewährleistet einen ausgewogenen Zugriff, der die NVMe-Leistung bewahrt. Die Data24 4000-Serie umfasst außerdem RESTful-API-Unterstützung für optimiertes Management, verbesserte Benutzerfreundlichkeit und Integration in vorhandene IT-Infrastrukturen.
Hohe Verfügbarkeit und Zuverlässigkeit der Enterprise-Klasse sind entscheidende Merkmale der Data24 4000-Serie. Features wie duale I/O-Module und N+2-Lüfterredundanz sorgen für die Sicherheit, dass auch bei unvorhergesehenen Komponentenausfällen ein kontinuierlicher Betrieb gewährleistet ist. Für die gesamte Plattform, einschließlich SSDs, gilt eine 5-jährige beschränkte Garantie.
Wichtige Spezifikationen für Western Digital OpenFlex Data24
OpenFlex Data24-Spezifikationen | |
---|---|
Maximale Speicherkapazität | 368TB |
Eingangsspannung | 120V - 240V |
PSU | Dual 800W |
Datenübertragungsrate | 12x 100 Gbit/s NVMe-oF |
Formfaktor | 2U |
Betriebstemperatur | 10 ° C ° C bis 35 |
Gewicht | 18.25 kg |
Abmessungen (B x L x H) | 491.9 mm x 628.65 mm x 85.5 mm / 19.37 Zoll x 24.75 Zoll x 3.37 Zoll. |
Stromverbrauch (max./typisch) | 750 W / ~550 W |
Netzteileffizienz | 80 Plus Titan |
Laufwerkssteckplätze | 24 |
Kühlung: | 4 Systemlüfter (N+2 unterstützt) |
Rack-Einheiten (U) | 2U |
Erforderliche Racktiefe | 1000 mm (39.4 in.) |
Erforderliche Rackbreite | 450mm (17.72 in.) |
Testen des OpenFlex Data24
Um die Leistung von OpenFlex Data24 zu steigern, mussten wir einige Schlüsselkomponenten zusammentragen: NVIDIA GPUDirect™, NVIDIA IndeX® und satte 5.9 TB Tornado-Simulationsdaten. Durch die Nutzung von NVIDIA GPUDirect ermöglichten wir eine direkte Kommunikation zwischen dem GPU-Speicher und OpenFlex Data24, wodurch die Latenzzeit drastisch reduziert und der Datendurchsatz maximiert wurde. Durch die Nutzung von NVIDIA IndeX konnten wir den riesigen Tornado-Datensatz effizienter visualisieren und mit ihm interagieren und die Echtzeitverarbeitungsfunktionen des Systems demonstrieren. Dieses Setup bot eine perfekte Testumgebung, um die Fähigkeit von OpenFlex Data24 zu demonstrieren, intensive KI-Workloads und groß angelegte Datenverarbeitung mit bemerkenswerter Geschwindigkeit und Effizienz zu bewältigen.
NVIDIA GPUDirect
NVIDIA GPUDirect Die Technologie verbessert die Datenübertragungseffizienz in Hochleistungs-GPU-Computerumgebungen erheblich. Diese Technologiesuite optimiert die Datenbewegung zwischen GPUs und anderen Systemkomponenten. Durch die Reduzierung von Latenz und Overhead ermöglicht GPUDirect eine direktere Kommunikation zwischen GPUs und Peripheriegeräten wie Netzwerkadaptern, Speichergeräten und anderen GPUs. Bei herkömmlichen Datenübertragungsprozessen werden Daten über die CPU und den Systemspeicher geleitet, wodurch Engpässe entstehen, die die Leistung beeinträchtigen. GPUDirect mildert diese Engpässe, indem es direkten Speicherzugriff (DMA) auf den Speicher der GPU ermöglicht und dabei die CPU und den Systemspeicher umgeht, wodurch der Gesamtdurchsatz verbessert wird.
Laut Harry Petty, Sr. Technical Marketing Manager von NVIDIA:
„Die Technologien von NVIDIA bieten geringe Latenzzeiten und schnellen Datentransfer vom Speicher und optimieren die Leistung von KI-Workloads durch Reduzierung der GPU-Leerlaufzeit. Dies führt zu schnelleren Modelltrainingszeiten und genaueren Ergebnissen, was schnellere Entdeckungen und effizientere Arbeitsabläufe ermöglicht.“
GPUDirect umfasst mehrere wichtige Funktionen, darunter GPUDirect RDMA, das direkte Datenübertragungen zwischen der GPU und RDMA-fähigen Netzwerkadaptern ermöglicht. Diese direkte Kommunikation ist entscheidend für Anwendungen, die einen schnellen Datenaustausch erfordern, wie etwa wissenschaftliche Simulationen und groß angelegte Datenanalysen. Durch die Ermöglichung schnellerer Datenübertragungen reduziert GPUDirect RDMA die Latenz und erhöht die Effizienz von GPU-Clustern. Darüber hinaus integriert GPUDirect Storage GPUs enger mit Hochgeschwindigkeitsspeichersystemen, sodass datenintensive Anwendungen die maximale Bandbreite moderner NVMe-Speicher nutzen können. Diese Integration beschleunigt den Datenzugriff und verkürzt die Wartezeit, bis Daten in den GPU-Speicher geladen sind, was für Echtzeitanalysen und groß angelegte Workloads im Bereich maschinelles Lernen von entscheidender Bedeutung ist.
Die Funktionen von GPUDirect sind besonders wirkungsvoll in Umgebungen, in denen mehrere GPUs im Tandem arbeiten, wie etwa in Trainingsclustern für Deep Learning. Durch die Erleichterung der direkten Kommunikation zwischen GPUs optimiert GPUDirect die parallele Verarbeitung und reduziert den mit Datenübertragungen zwischen GPUs verbundenen Overhead erheblich. Diese Verbesserung ist besonders beim Training komplexer neuronaler Netzwerke von Vorteil, bei denen große Datenmengen schnell zwischen mehreren GPUs ausgetauscht werden müssen. Die Effizienzgewinne durch GPUDirect zeigen sich auch in Anwendungen wie Molekulardynamiksimulationen und Strömungsdynamik, bei denen die Rechenlasten auf mehrere GPUs verteilt werden, um schnellere Ergebnisse zu erzielen.
NVIDIA IndeX
NVIDIA IndeX ist ein fortschrittliches Tool zur volumetrischen Visualisierung, das für die hochpräzise Verarbeitung riesiger Datensätze konzipiert wurde. IndeX nutzt die GPU-Beschleunigung, um eine interaktive Echtzeitvisualisierung von 3D-Volumendaten bereitzustellen. Damit ist es für Branchen wie die Öl- und Gasförderung, die medizinische Bildgebung und die wissenschaftliche Forschung unverzichtbar. Herkömmliche Visualisierungstools haben oft Probleme mit der schieren Größe und Komplexität moderner Datensätze, was zu langsameren Rendering-Zeiten und weniger interaktiven Benutzererfahrungen führt. IndeX überwindet diese Einschränkungen, indem es die GPU-Technologie von NVIDIA nutzt, um leistungsstarkes Rendering und Datenverarbeitung bereitzustellen und sicherzustellen, dass Benutzer in Echtzeit mit ihren Daten interagieren können.
Die Leistungsfähigkeit von IndeX beruht auf der Fähigkeit, die parallele Verarbeitungsleistung von GPUs zu nutzen, wodurch es große volumetrische Daten effizient verwalten und rendern kann. Diese Fähigkeit ist bei Anwendungen wertvoll, die eine hochauflösende Visualisierung erfordern, wie etwa bei der seismischen Interpretation und Reservoirsimulation im Öl- und Gassektor. Durch die Bereitstellung detaillierter und genauer visueller Darstellungen unterirdischer Strukturen hilft IndeX Geowissenschaftlern, fundiertere Entscheidungen zu treffen. Im medizinischen Bereich erleichtert IndeX die Visualisierung komplexer anatomischer Strukturen aus Bildgebungsverfahren wie MRT- und CT-Scans und unterstützt so die Diagnose und Behandlungsplanung.
Die Echtzeit-Rendering-Fähigkeit von IndeX ist auch für die wissenschaftliche Forschung von entscheidender Bedeutung, bei der große Datensätze aus Simulationen und Experimenten zeitnah visualisiert und analysiert werden müssen. Forscher können ihre Daten interaktiv bearbeiten und untersuchen, was schnellere Hypothesentests und Entdeckungen ermöglicht. Die Skalierbarkeit von IndeX stellt sicher, dass es die wachsenden Datenmengen verarbeiten kann, die von fortschrittlichen wissenschaftlichen Instrumenten und Simulationen erzeugt werden, und bietet Forschern die Werkzeuge, um ihre Daten effektiv zu visualisieren und zu interpretieren. Durch die nahtlose Integration in bestehende Arbeitsabläufe und die Unterstützung verschiedener Datenformate steigert IndeX die Produktivität und beschleunigt das Entdeckungstempo in mehreren Disziplinen.
Alles zusammenbinden
Die Integration der Data24 4000-Serie mit der NVIDIA GPUDirect-Technologie verbessert die Leistung GPU-intensiver Anwendungen erheblich, indem die Datenübertragung zwischen GPUs und Speicher optimiert wird. GPUDirect erleichtert den direkten Speicherzugriff, sodass die Datenbewegung die CPU und den Systemspeicher umgehen kann, um die Latenz zu verringern und den Durchsatz zu erhöhen. In Kombination mit den hochleistungsfähigen NVMe-oF-Funktionen der Data24 4000-Serie stellt GPUDirect sicher, dass GPUs schnell auf große Datensätze zugreifen können, die auf den NVMe-SSDs gespeichert sind.
Diese Integration ist besonders in Umgebungen von Vorteil, in denen ein schneller Datenaustausch zwischen GPUs und Speicher entscheidend ist, wie etwa bei Deep Learning und wissenschaftlichen Simulationen. Die geringe Latenz und hohe Bandbreite der Data24 4000-Serie, gepaart mit den direkten Datenpfaden von GPUDirect, minimieren die Datenübertragungszeiten und ermöglichen eine effizientere GPU-Auslastung. Diese Synergie optimiert die Leistung paralleler Verarbeitungsaufgaben, bei denen mehrere GPUs schnellen und häufigen Zugriff auf gemeinsam genutzte Daten erfordern.
Für diesen Test werden der OpenFlex Data24 4000 und der GPU-Server über einen 200GbE-Switch mit dem NVMe-oF RoCEv2-Protokoll mit abgestimmten MTUs von 5000 verbunden. Der GPU-Server verwendet 3 Mellanox® CX7 RNICs mit 2x 200 GbE pro RNIC. Der OpenFlex Data24 4000 ist mit 12x 100GbE-Ports erhältlich. Jeder CX7-Port verfügt über 2 IP-Adressen, sodass ein einzelner CX7 vier Ports auf dem Data24 zugeordnet werden kann. Dies ermöglicht die Konnektivität zu allen 4 PCIe-Lanes auf jedem Dual-Port-Laufwerk. Die 6x 200 GbE-Links entsprechen dem Bandbreitenpotenzial von 12x 100 GbE-Links für eine nicht blockierende Netzwerkarchitektur.
Jede NVIDIA H100 ist über einen PCIe Gen5 x16-Steckplatz verbunden, der theoretisch bidirektional eine Bandbreite von 64 GB/s erreichen kann. Jeder 200GbE- und 100GbE-RNIC-Port kann theoretisch 25 GB/s bzw. 12.5 GB/s erreichen. Eine wichtige Designüberlegung besteht darin, eine nicht blockierende Architektur sicherzustellen. Dies erfordert, dass die GPUs, RNICs und NVMe-oF-Laufwerke alle physisch auf demselben CPU-, NUMA- und PLX-Switch abgebildet sind. Dadurch kann die Konfiguration GPUDirect voll ausnutzen. Wie in dieser Implementierung zu sehen ist, würde eine gespiegelte Konfiguration auf dem zweiten CPU-, NUMA- und PLX-Switch eine vorhersehbare Rechenleistung und eine theoretische Verdoppelung der Leistung ermöglichen.
In KI-Trainingsclustern kann die Kombination aus Data24 4000 und GPUDirect schnellere Trainingszeiten ermöglichen, indem sie die mit dem Laden von Daten verbundenen Engpässe reduziert. Die effizienten Datenpfade stellen sicher, dass GPUs kontinuierlich und ohne Unterbrechung Daten empfangen können, wodurch hohe Verarbeitungsgeschwindigkeiten aufrechterhalten und die Gesamtsystemeffizienz verbessert wird. Dieses Setup ist auch für Echtzeitanalysen und andere Anwendungen von Vorteil, die einen schnellen Datenzugriff und eine schnelle Datenverarbeitung erfordern, und bietet eine deutliche Leistungssteigerung für verschiedene Rechenlasten.
NVIDIA Index-Serverkonfiguration
Für den NVIDIA IndeX-Test haben wir das Supermicro 521GE-TNRT verwendet, das mit der Switched PCIe Backplane, einem Paar NVIDIA H100s und drei NVIDIA ConnectX-7-Netzwerkkarten ausgestattet ist.
Wichtige Spezifikationen des Supermicro® 521GE-TNRT | |
---|---|
Modell | Supermicro 521GE-TNRT |
Prozessor | 2x Intel® Xeon® Platinum 8462Y+ |
Memory | 1 TB DDR5 |
GPU | 2x NVIDIA H100 PCIe |
Netzwerkschnittstelle | 3x NVIDIA ConnectX-7-Netzwerkkarten |
GDSIO-Synthetische Tests
Das zu diesem Zweck verwendete Benchmarking-Tool ist GDSIO, ein spezielles proprietäres NVIDIA-Dienstprogramm zur Messung der Speicherleistung in GPU-Direct-Storage-Umgebungen (GDS). Wir haben uns für diese Testrunde einige Konfigurationen angesehen: eine einzelne GPU mit 12 Laufwerken und 24 Laufwerken sowie zwei GPUs mit 24 Laufwerken.
Die Leistung des Western Digital OpenFlex Data24 im GDSIO-Leistungstest in Verbindung mit NVIDIA H100-GPUs gibt Aufschluss über die reine Leistung der Laufwerke. Bei einer Konfiguration mit 12 Laufwerken und einer einzelnen GPU erreichte das System eine Schreibbandbreite von 44.14 GB/s. Eine Erhöhung der Laufwerksanzahl auf 24 bei Verwendung einer GPU zeigte eine leichte Verbesserung, wobei die Schreibleistung 54.15 GB/s erreichte. Die Einführung einer zweiten GPU in der Konfiguration mit 24 Laufwerken führte zu einer erheblichen Steigerung und erhöhte die Schreibbandbreite auf 87.91 GB/s.
Die Leseleistung folgt einem ähnlichen Trend. Die Konfiguration mit 12 Laufwerken und einer GPU ergab eine Lesebandbreite von 53.47 GB/s. Die Erweiterung auf 24 Laufwerke mit einer GPU erhöht sie leicht auf 54.75 GB/s. Die dramatischste Verbesserung wurde jedoch mit der Konfiguration mit zwei GPUs erzielt, bei der das System eine beeindruckende Lesebandbreite von 101.14 GB/s erreichte. Diese Ergebnisse unterstreichen die Fähigkeit des OpenFlex Data24, mit einer erhöhten Anzahl von Laufwerken vorhersehbar zu skalieren.
Die Hinzufügung von GPUs spielt eine entscheidende Rolle bei der Leistungsmaximierung. Die Konfiguration mit 24 Laufwerken und zwei GPUs erwies sich als optimale Konfiguration, da sie die höchste Bandbreite für Lese- und Schreibvorgänge lieferte. Dieser Test unterstreicht die Bedeutung der GPU-Beschleunigung, um das volle Potenzial des GDSIO-Frameworks auszuschöpfen. OpenFlex Data24 bietet in Kombination mit NVIDIA H100-GPUs eine außergewöhnliche Leistung und ist damit eine robuste Lösung für anspruchsvolle Speicherumgebungen.
Bei KI-Workloads, bei denen eine schnelle Datenaufnahme und -verarbeitung von größter Bedeutung ist, kann die mit OpenFlex Data24 erzielte Leistung zu einer deutlichen Verkürzung der Trainingszeiten und einer effizienteren Handhabung großer Datensätze führen. Die Möglichkeit, Daten schnell vom Speicher in den GPU-Speicher zu verschieben, stellt sicher, dass die Rechenressourcen leistungsstarker GPUs voll ausgeschöpft werden, was ein schnelleres und effizienteres Modelltraining und -schlussfolgern ermöglicht.
Verwendung von OpenFlex Data24 zur Versorgung der Tornados des H100
Klimaforscher untersuchen seit langem Superzellengewitter, die atmosphärischen Phänomene, die für die heftigsten und gefährlichsten Tornados der Welt verantwortlich sind. Diese Stürme sind dynamisch und komplex, was genaue Simulationen zeitaufwändig und datenintensiv macht. Die Auswertung solcher Daten ist ein langsamer, mühsamer Prozess, der oft Stunden dauert, um neue Visualisierungen zu erstellen.
Der Einsatz von NVIDIA-Grafikprozessoren und NVIDIA IndeX hat dieses Feld revolutioniert. Wissenschaftler können jetzt volumetrische Visualisierungen in Echtzeit durchführen. Die Simulation, die wir auf dem Supermicro-System mit H100s (die mit Daten von OpenFlex Data24 versorgt wurden) durchgeführt haben, zeigt einen Sturm in Oklahoma aus dem Jahr 2011, der von Professor Leigh Orf simuliert wurde. Diese Simulation, die mathematisch aus den Anfangsbedingungen kurz vor der Entstehung des Tornados abgeleitet wurde, umfasst 250 Milliarden Gitterpunkte, von denen jeder über ein Dutzend Attribute wie Regen, Hagel, Druck und Windgeschwindigkeit aufweist. Diese detaillierte Visualisierung mit 6000 Simulationsschritten bietet beispiellose Einblicke in die Dynamik des Tornados.
Der Schlüssel zu dieser Simulation ist NanoVDB, eine kompakte Sparse-Volume-Datenstruktur, die Datensatzgrößen und Speicherbedarf reduziert, indem sie Daten direkt in den Speicher der GPU überträgt. In Verbindung mit der GPUDirect Storage-Technologie und OpenFlex Data24 haben wir bis zu 89 GB/s erreicht und können Ergebnisse mit über 13 Bildern pro Sekunde anzeigen. Dies entspricht ungefähr 5.9 TB Datensatz, der alle 66 Sekunden aufgenommen wird. Diese Kombination ermöglicht interaktive Navigation, Parameteranpassungen im laufenden Betrieb und einfaches Durchlaufen der Simulation.
Wenn GPUDirect deaktiviert ist (und die Daten daher jetzt den CPU-Komplex durchlaufen), wird die Bandbreite auf etwa 15 GB/s reduziert und die Bildrate sinkt deutlich auf 4 Bilder pro Sekunde.
Geschwindigkeit ist entscheidend, aber fotorealistische Qualität ist auch wichtig, um die Genauigkeit von Simulationen zu validieren. Wenn Simulation und Realität nicht übereinstimmen, müssen die Modelle korrigiert werden. NVIDIA Iray, ein GPU-basierter Path-Tracer, der physikalisch korrekten Lichttransport rendert, wird zusammen mit NVIDIA IndeX-Volumendaten verwendet, um diese Visualisierung zu unterstützen. Der Trichter des Tornados, der Bodenkontakt und detaillierte Elemente wie das Wolken-Wasser-Verhältnis und Regen, dargestellt durch blaugraue Poren, sind deutlich sichtbar.
Schlussfolgerung
Die Leistungs-, Zeit- und Kostenvorteile, die eine gut konfigurierte, nicht blockierende Architektur bei GPU-beschleunigten Workloads bieten kann, werden in diesem Projekt gut demonstriert. Einfach ausgedrückt: Wenn GPUs ihren maximalen Durchsatz oder ihre maximale Verarbeitungskapazität erreichen, führt dies zu effizienteren Ergebnissen und einer höheren Kapitalrendite.
Die Architektur von Western Digital unterstützt Open Composable Infrastructure (OCI), und die OpenFlex Data24 4000-Plattform nutzt diesen OCI-Ansatz, indem sie die Datenspeicherung mithilfe von NVMe-over-Fabrics (NVMe-oF) disaggregiert. Diese Entkopplung der Speicherressourcen vom GPU-Server hilft nicht nur dabei, die Ressourcen der Server freizugeben (und diese Ressourcen von herkömmlichen Lockstep-Upgrades zu befreien), sondern ermöglicht dadurch auch eine Feinabstimmung der NVMe-Laufwerkzuordnung zu GPUs. Diese präzise Laufwerkszuordnung zu den GPU-Anforderungen ermöglicht eine genaue Berücksichtigung der Anforderungen an GPU-Fähigkeit, Leistung und Datenkapazität, was wiederum die vorhersehbare Skalierung und Flexibilität bietet, die für diese Ressourcen erforderlich ist.
Da die Daten nicht mehr in Silos gespeichert sind, werden sie zu einer zugänglichen Netzwerkspeicherressource, die je nach Bedarf von mehreren GPU-Servern gemeinsam genutzt werden kann, was die Flexibilität weiter erhöht.
Der Western Digital OpenFlex Data24 zeigt in Kombination mit der NVIDIA GPUDirect-Technologie eine beeindruckende Leistungsfähigkeit bei der Verarbeitung von KI und anderen GPU-beschleunigten Workloads. Durch die Aktivierung direkter Datenpfade zwischen GPU-Speicher und NVMe-Speicher reduziert der Data24 die Latenzzeit erheblich und maximiert die Bandbreite, wodurch eine effiziente Datenverarbeitung und optimale GPU-Auslastung gewährleistet wird. Diese Integration ermöglicht eine schnellere und effektivere Verarbeitung großer Datensätze und macht den Data24 zu einem unschätzbaren Vorteil in modernen datenintensiven Umgebungen.
Unsere Tests unter realen Bedingungen, bei denen ein umfangreicher Datensatz zur Tornado-Simulation zum Einsatz kam, zeigten die bemerkenswerten Leistungssteigerungen, die durch dieses Setup erzielt wurden. Die Fähigkeit von OpenFlex Data24, Datenübertragungen mit hohem Durchsatz und geringer Latenz zu liefern, in Verbindung mit den Echtzeit-Visualisierungsfunktionen von NVIDIA IndeX, unterstreicht sein Potenzial in anspruchsvollen Anwendungen wie KI-Training, wissenschaftlichen Simulationen und Echtzeitanalysen.
Die Verwendung der Data24-Serie und der GPUDirect-Technologie für KI-Trainingscluster kann die Trainingszeiten erheblich verkürzen, indem ein nahtloser Datenfluss vom Speicher zu den GPUs sichergestellt wird. Dieses Setup minimiert Engpässe und verbessert die Gesamtsystemleistung, was es zu einer entscheidenden Komponente bei der Entwicklung schnellerer und genauerer KI-Modelle macht.
Über KI hinaus erstrecken sich die Vorteile von OpenFlex Data24 auch auf andere GPU-beschleunigte Workloads, darunter High-Performance-Computing und Echtzeit-Datenanalyse. Die reduzierte Latenz und der erhöhte Durchsatz, die diese Plattform ermöglicht, sorgen dafür, dass Anwendungen, die schnellen Datenzugriff und -verarbeitung erfordern, mit Höchstleistung arbeiten und zeitnahe und präzise Ergebnisse liefern können.
Sehen Sie diese Demo vom 6. bis 8. August 2024 am FMS 2024-Stand Nr. 607 in Aktion.
Western Digital OpenFlex-Plattformen
[1] Ein Terabyte (TB) entspricht einer Billion Bytes. Die tatsächliche Benutzerkapazität kann aufgrund der Betriebsumgebung geringer sein.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed