Jensen Huang von NVIDIA ist diese Woche auf der Computex 2023 in Taiwan und hält eine Keynote voller neuer Produktankündigungen, wobei der Schwerpunkt auf der Ermöglichung der Entwicklung von Modellen der nächsten Generation für generative KI-Anwendungen, Datenanalysen und Empfehlungssysteme liegt. Der NVIDIA DGX Supercomputer mit NVIDIA GH200 Grace Hopper Superchips und dem NVIDIA NVLink Switch-System standen im Mittelpunkt.
Jensen Huang von NVIDIA ist diese Woche auf der Computex 2023 in Taiwan und hält eine Keynote voller neuer Produktankündigungen, wobei der Schwerpunkt auf der Ermöglichung der Entwicklung von Modellen der nächsten Generation für generative KI-Anwendungen, Datenanalysen und Empfehlungssysteme liegt. Der NVIDIA DGX Supercomputer mit NVIDIA GH200 Grace Hopper Superchips und dem NVIDIA NVLink Switch-System standen im Mittelpunkt.
Die NVIDIA DGX GH200 nutzt die NVLink-Verbindungstechnologie mit dem NVLink-Switch-System, um 256 GH200-Superchips zu einer einzigen GPU zu kombinieren und so 1 Exaflop Leistung und 144 Terabyte gemeinsam genutzten Speicher bereitzustellen. Das ist fast 500-mal mehr Speicher als ein einzelnes NVIDIA DGX A100-System!
NVLink-Technologie erweitert KI im großen Maßstab
Die GH200-Superchips kombinieren die Arm-basierte NVIDIA Grace-CPU mit der NVIDIA H100 Tensor Core-GPU NVLink-C2C Chip-Verbindungen, sodass keine herkömmliche CPU-zu-GPU-PCIe-Verbindung erforderlich ist. Die Bandbreite zwischen GPU und CPU wird im Vergleich zur neuesten PCIe-Technologie um das Siebenfache erhöht, wodurch der Stromverbrauch der Verbindung um mehr als das Fünffache reduziert wird und ein 7-GB-GPU-Baustein mit Hopper-Architektur für DGX GH5-Supercomputer bereitgestellt wird.
Dies ist der erste Supercomputer, der Grace Hopper Superchips mit dem NVLink Switch System kombiniert. Diese neue Verbindung ermöglicht es allen GPUs in einem DGX GH200-System, als eine zu arbeiten, im Vergleich zur Beschränkung auf acht GPUs in Kombination mit NVLink als einer einzigen GPU, ohne dass die Leistung beeinträchtigt wird. Die DGX GH200-Architektur bietet zehnmal mehr Bandbreite als die vorherige Generation und bietet die Leistung eines riesigen KI-Supercomputers mit der Einfachheit der Programmierung einer einzelnen GPU.
KI-Pioniere erhalten neue Forschungstools
Es wird erwartet, dass Google Cloud, Meta und Microsoft als erste auf den neuen Supercomputer zugreifen und dessen Fähigkeiten für generative KI-Workloads erkunden können. NVIDIA beabsichtigt, das DGX GH200-Design als Blaupause für Cloud-Dienstleister und andere Hyperscaler bereitzustellen, damit diese es an ihre Infrastruktur anpassen können.
NVIDIA-Forscher und Entwicklungsteams erhalten Zugang zum neuen NVIDIA Helios-Supercomputer mit vier DGX GH200-Systemen. Helios wird 1,024 Grace Hopper Superchips enthalten und voraussichtlich Ende des Jahres online sein. Jedes System im Helios-Supercomputer wird mit dem NVIDIA Quantum-2 InfiniBand-Netzwerk mit einem Datendurchsatz von bis zu 400 Gbit/s für das Training großer KI-Modelle verbunden.
Integriert und zweckorientiert
Die DGX GH200-Supercomputer werden mit NVIDIA-Software ausgestattet sein und eine schlüsselfertige Full-Stack-Lösung bieten, die die größten KI- und Datenanalyse-Workloads unterstützt. NVIDIA-Basisbefehl Die Software bietet KI-Workflow-Management, Cluster-Management der Enterprise-Klasse, Bibliotheken zur Beschleunigung der Rechen-, Speicher- und Netzwerkinfrastruktur sowie Systemsoftware, die für die Ausführung von KI-Workloads optimiert ist. NVIDIA AI Enterprise Die Software wird enthalten sein und mehr als 100 Frameworks, umgeschulte Modelle und Entwicklungstools bereitstellen, um die Entwicklung und Bereitstellung von Produktions-KI, einschließlich generativer KI, Computer Vision, Sprach-KI und anderen, zu optimieren.
Verfügbarkeit
NVIDIA DGX GH200-Supercomputer werden voraussichtlich Ende des Jahres verfügbar sein.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed