NVIDIA hat die Software-Suite Magnum IO angekündigt, die Datenwissenschaftlern sowie Forschern im Bereich KI und Hochleistungsrechnen dabei helfen soll, riesige Datenmengen sehr schnell zu verarbeiten. Magnum IO wurde optimiert, um Speicher- und Ein-/Ausgabeengpässe zu beseitigen, und wird mit Datenverarbeitungsgeschwindigkeiten angegeben, die für Multi-Server- und Multi-GPU-Rechenknoten bei der Arbeit mit riesigen Datensätzen zwanzig (20) Mal schneller sind. Dadurch können Unternehmen komplexe Finanzanalysen, Klimamodellierungen und andere HPC-Arbeitslasten durchführen.
NVIDIA hat die Software-Suite Magnum IO angekündigt, die Datenwissenschaftlern sowie Forschern im Bereich KI und Hochleistungsrechnen dabei helfen soll, riesige Datenmengen sehr schnell zu verarbeiten. Magnum IO wurde optimiert, um Speicher- und Ein-/Ausgabeengpässe zu beseitigen, und wird mit Datenverarbeitungsgeschwindigkeiten angegeben, die für Multi-Server- und Multi-GPU-Rechenknoten bei der Arbeit mit riesigen Datensätzen zwanzig (20) Mal schneller sind. Dadurch können Unternehmen komplexe Finanzanalysen, Klimamodellierungen und andere HPC-Arbeitslasten durchführen.
NVIDIA hat bei der Entwicklung von Magnum IO mit Branchenführern im Bereich Netzwerk und Speicher zusammengearbeitet, darunter DataDirect Networks, Excelero, IBM, Mellanox und WekaIO. Diese Software-Suite-Version wird auch durch GPUDirect Storage hervorgehoben, das Forschern die Möglichkeit gibt, CPUs beim Zugriff auf den Speicher zu umgehen, um schnell auf Datendateien in Anwendungen wie Simulation, Analyse oder Visualisierung zuzugreifen.
Verfügbarkeit
Die NVIDIA Magnum IO-Software ist ab sofort verfügbar, GPUDirect Storage steht jedoch derzeit nur einer ausgewählten Anzahl von Early-Access-Kunden zur Verfügung; eine umfassendere Veröffentlichung ist für die erste Hälfte des Jahres 2020 geplant.
Melden Sie sich für den StorageReview-Newsletter an