Startseite Unternehmen NVIDIA MGX-Serverspezifikation für Systemhersteller enthüllt

NVIDIA MGX-Serverspezifikation für Systemhersteller enthüllt

by Harold Fritts

NVIDIAs Keynote zur Computex-Eröffnung stellte die NVIDIA MGX-Serverspezifikation vor, eine modulare Referenzarchitektur für Systemhersteller, die es ihnen ermöglicht, schnell und kostengünstig über 100 Servervarianten zu bauen, die für ein breites Spektrum an KI-, Hochleistungs-Computing- und Omniverse-Anwendungen geeignet sind.

NVIDIAs Keynote zur Computex-Eröffnung stellte die NVIDIA MGX-Serverspezifikation vor, eine modulare Referenzarchitektur für Systemhersteller, die es ihnen ermöglicht, schnell und kostengünstig über 100 Servervarianten zu bauen, die für ein breites Spektrum an KI-, Hochleistungs-Computing- und Omniverse-Anwendungen geeignet sind.

NVIDIA MGX

Hersteller wie ASRock Rack, ASUS, GIGABYTE, Pegatron, QCT und Supermicro werden MGX einführen, um die Entwicklungskosten um bis zu 75 Prozent zu senken und die Entwicklungszeit um zwei Drittel auf nur sechs Monate zu verkürzen. MGX stellt für seine Servergehäuse eine grundlegende Systemarchitektur bereit, die für beschleunigtes Computing optimiert ist, und ermöglicht die Auswahl von GPU, DPU und CPU. Designvarianten richten sich an einzigartige Arbeitslasten wie HPC, Datenwissenschaft, große Sprachmodelle, Edge Computing, Grafik und Video, Unternehmens-KI sowie Design und Simulation. MGX kann problemlos in Cloud- und Unternehmensrechenzentren integriert werden.

Supermicro und QCT werden als erste auf den Markt kommen, MGX-Designs erscheinen im August. In einer neuen Ankündigung von Supermirco wurde das ARS-221GL-NR-System vorgestellt, das den NVIDIA Grace CPU Superchip enthält. Unabhängig davon wurde in einer neuen Ankündigung von QCT das S74G-2U-System vorgestellt, das den NVIDIA GH200 Grace Hopper Superchip verwenden wird. Softbank Corp. plant außerdem die Einführung mehrerer Hyperscale-Rechenzentren in ganz Japan mithilfe von MGX, um GPU-Ressourcen dynamisch zwischen generativer KI und 5G-Anwendungen zuzuweisen.

Flexibilität im Design

Rechenzentren stehen unter dem Druck, die Anforderungen an wachsende Rechenkapazitäten und die Reduzierung von COXNUMX-Emissionen zu erfüllen, um dem Klimawandel entgegenzuwirken und gleichzeitig Kosten zu senken. Der modulare Aufbau von MGX bietet Systemherstellern die Werkzeuge, um das individuelle Budget, die Leistungsabgabe, das thermische Design und die mechanischen Anforderungen des Kunden zu erfüllen.

MGX funktioniert mit verschiedenen Formfaktoren und ist mit aktuellen und zukünftigen Generationen von NVIDIA-Hardware kompatibel, darunter:

  • Chassis: 1U, 2U, 4U (luft- oder flüssigkeitsgekühlt)
  • GPUs: Vollständiges NVIDIA-GPU-Portfolio, einschließlich der neuesten H100, L40, L4
  • CPUs: NVIDIA Grace CPU Superchip, GH200 Grace Hopper Superchip, x86-CPUs
  • Networking mit anderen Teilnehmern: NVIDIA BlueField®-3 DPU, ConnectX-7 Netzwerkadapter

MGX wurde entwickelt, um eine flexible, generationenübergreifende Kompatibilität mit NVIDIA-Produkten zu bieten und sicherzustellen, dass Systementwickler vorhandene Designs wiederverwenden und problemlos Produkte der nächsten Generation übernehmen können. Der Unterschied zum NVIDIA HGX besteht darin, dass es auf einem mit NVLink verbundenen Multi-GPU-Baseboard basiert, das auf die Skalierung zur Erstellung von KI- und HPC-Systemen zugeschnitten ist.

Zusätzlich zur Hardware wird MGX durch den vollständigen Software-Stack von NVIDIA unterstützt, der es Entwicklern und Unternehmen ermöglicht, KI-, HPC- und andere Anwendungen zu erstellen und zu beschleunigen. Dazu gehört NVIDIA AI Enterprise, die Softwareschicht der NVIDIA AI-Plattform, die über 100 Frameworks, vorab trainierte Modelle und Entwicklungstools zur Beschleunigung von KI und Datenwissenschaft für eine vollständig unterstützte KI-Entwicklung und -Bereitstellung in Unternehmen bietet.

NVIDIA MGX ist mit den Server-Racks des Open Compute Project und der Electronic Industries Alliance kompatibel und ermöglicht eine schnelle Integration in Unternehmens- und Cloud-Rechenzentren.

Beteiligen Sie sich an StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed