Startseite Unternehmen NVIDIA kündigt skalierbaren GPU-beschleunigten Supercomputer in der Microsoft Azure Cloud an

NVIDIA kündigt skalierbaren GPU-beschleunigten Supercomputer in der Microsoft Azure Cloud an

by Lyle Smith

NVIDIA hat die Verfügbarkeit eines neuen cloudbasierten, GPU-beschleunigten Supercomputers auf Microsoft Azure angekündigt. NVIDIA ist für die Bewältigung anspruchsvoller KI-, maschineller Lern- und Hochleistungs-Computing-Anwendungen konzipiert und gibt an, dass sein neues Angebot im Vergleich zu herkömmlichem CPU-basiertem Computing erhebliche Leistungs- und Kostenvorteile bieten wird. Beispielsweise werden KI-Forscher in der Lage sein, innerhalb von Stunden mehrere NDv2-Instanzen hochzufahren und komplexe Konversations-KI-Modelle zu trainieren, so das Unternehmen.


NVIDIA hat die Verfügbarkeit eines neuen cloudbasierten, GPU-beschleunigten Supercomputers auf Microsoft Azure angekündigt. NVIDIA ist für die Bewältigung anspruchsvoller KI-, maschineller Lern- und Hochleistungs-Computing-Anwendungen konzipiert und gibt an, dass sein neues Angebot im Vergleich zu herkömmlichem CPU-basiertem Computing erhebliche Leistungs- und Kostenvorteile bieten wird. Beispielsweise werden KI-Forscher in der Lage sein, innerhalb von Stunden mehrere NDv2-Instanzen hochzufahren und komplexe Konversations-KI-Modelle zu trainieren, so das Unternehmen.

Um diesen neuen skalierbaren GPU-beschleunigten Supercomputer zu bauen, verwendeten die Ingenieure von Microsoft und NVIDIA 64 NDv2-Instanzen auf einer Vorabversion des Clusters, um BERT in etwa drei Stunden zu trainieren. Dies war dank der Multi-GPU-Optimierungen von NCCL, einer NVIDIA CUDA X-Bibliothek und Hochgeschwindigkeits-Mellanox-Verbindungen möglich.

NVIDIA fügt hinzu, dass diejenigen, die mehrere NDv2-Instanzen verwenden, auch eine Reihe von Vorteilen bei der Ausführung komplexer HPC-Workloads bemerken werden. Selbst eine einzelne NDv2-Instanz liefert im Vergleich zu einem herkömmlichen HPC-Knoten ohne GPU-Beschleunigung für bestimmte Arten von Anwendungen, wie zum Beispiel Deep Learning, viel schnellere Ergebnisse. Diese Leistung kann für groß angelegte Simulationen auch linear auf hundert Instanzen skaliert werden.

NVIDIA behauptet außerdem, dass alle NDv2-Instanzen von den GPU-optimierten HPC-Anwendungen, der Software für maschinelles Lernen und den Deep-Learning-Frameworks aus der NVIDIA NGC-Containerregistrierung und dem Azure Marketplace profitieren werden.

Verfügbarkeit

NDv2 ist jetzt als Vorschau verfügbar.

NVIDIA

Diskutiere diese Geschichte

Melden Sie sich für den StorageReview-Newsletter an