Auf der Computex 2024 stellte ASRock Rack eine Reihe von Scale-up-Servern vor, die die robuste NVIDIA Blackwell-Architektur nutzen. ASRock Rack präsentierte mehrere hochmoderne Systeme, die den Anforderungen von KI-, HPC- und Rechenzentrums-Workloads gerecht werden.
Auf der Computex 2024 stellte ASRock Rack eine Reihe von Scale-up-Servern vor, die die robuste NVIDIA Blackwell-Architektur nutzen. ASRock Rack präsentierte mehrere hochmoderne Systeme, die den Anforderungen von KI-, HPC- und Rechenzentrums-Workloads gerecht werden.
Im Mittelpunkt der Ankündigung von ASRock Rack stand der ORV3 NVIDIA GB200 NVL72, eine flüssigkeitsgekühlte Rack-Lösung. Dieses System basiert auf dem kürzlich angekündigten Scale-up-System NVIDIA GB200 NVL72, das 36 NVIDIA Grace-CPUs und 72 NVIDIA Blackwell Tensor Core-GPUs mithilfe der NVIDIA NVLink-Technologie integriert. Diese Konfiguration bildet eine riesige GPU-Einheit, die eine schnellere Echtzeit-LLM-Inferenz (Large Language Model) ermöglicht und gleichzeitig die Gesamtbetriebskosten (TCO) senkt.
Zusätzlich zum ORV3-System stellte ASRock Rack die erweiterten Servermodelle 6U8X-EGS2 NVIDIA HGX B100 und 6U8X-GNR2/DLC NVIDIA HGX B200 vor. Diese Server sind mit den NVIDIA HGX B100 bzw. B200 8-GPU-Systemen ausgestattet.
Der NVIDIA HGX B100 ist ein direkter Ersatz für bestehende NVIDIA HGX H100-Infrastrukturen und erleichtert so einen einfachen Übergang. Der 6U8X-GNR2/DLC NVIDIA HGX B200 verfügt über Direct-to-Chip-Flüssigkeitskühlungstechnologie, die es dem System ermöglicht, die Thermal Design Power (TDP) von NVIDIA Blackwell GPUs innerhalb eines 6U-Rackmount-Designs effizient zu bewältigen. Für diejenigen ohne Flüssigkeitskühlungsinfrastruktur plant ASRock Rack die Einführung des luftgekühlten 8U8X-GNR2 NVIDIA HGX B200, das auch mit dem NVIDIA HGX B200 8-GPU-System für leistungsstarke Echtzeit-Inferenz auf Billionen-Parameter-Modellen ausgestattet ist.
Verbesserte Konnektivität
Alle ASRock Rack NVIDIA HGX-Server unterstützen bis zu acht NVIDIA BlueField-3 SuperNICs und nutzen die NVIDIA Spectrum-X-Plattform, eine End-to-End-KI-optimierte Ethernet-Lösung. Diese Systeme werden auch für die Full-Stack-Plattform NVIDIA AI und Accelerated Computing, einschließlich NVIDIA NIM-Inferenz-Microservices, als Teil der NVIDIA AI Enterprise-Software-Suite für generative KI zertifiziert.
Weishi Sa, Präsident von ASRock Rack, betonte das Engagement des Unternehmens für die Bereitstellung erstklassiger Rechenzentrumslösungen auf Basis der NVIDIA Blackwell-Architektur. „Wir präsentieren Rechenzentrumslösungen für die anspruchsvollsten Arbeitslasten im LLM-Training und in der generativen KI-Inferenz. „Wir werden unser Portfolio weiter ausbauen, um die Vorteile der NVIDIA Blackwell-Architektur in die Mainstream-LLM-Inferenz- und Datenverarbeitung zu integrieren“, sagte Sa.
ASRock Rack entwickelt neue Produkte auf Basis der NVIDIA GB200 NVL2, um die Vorteile der NVIDIA Blackwell-Architektur auf Scale-out-Konfigurationen auszuweiten und eine nahtlose Integration in bestehende Rechenzentrumsinfrastrukturen zu gewährleisten.
Kaustubh Sanghani, Vizepräsident für GPU-Produktmanagement bei NVIDIA, hob die Zusammenarbeit mit ASRock Rack hervor. Er sagte: „Durch die Zusammenarbeit mit ASRock Rack bieten wir Unternehmen ein leistungsstarkes KI-Ökosystem, das Hardware und Software nahtlos integriert, um bahnbrechende Leistung und Skalierbarkeit zu bieten und dabei zu helfen, die Grenzen von KI und Hochleistungsrechnen zu verschieben.“
Modulare NVIDIA MGX-Referenzarchitektur
Zusätzlich zu den neuen Produkten präsentierte ASRock Rack den 4UMGX-GNR2, einen Dual-Socket-GPU-Server, der mit der NVIDIA MGX 4U-Architektur kompatibel ist. Dieser Server unterstützt bis zu acht FHFL-Dual-Slot-GPUs, wie z. B. die NVIDIA H200 NVL Tensor Core GPU, wodurch er für gängige Unternehmensserver geeignet ist. Es verfügt über fünf FHHL PCIe 5.0 x16-Steckplätze und einen HHHL PCIe 5.0 x16-Steckplatz und unterstützt NVIDIA BlueField-3 DPUs und NVIDIA ConnectX®-7 NICs für mehrere 200 Gbit/s oder 400 Gbit/s Netzwerkverbindungen. Der Server verfügt außerdem über 16 Hot-Swap-Laufwerksschächte für E1.S-SSDs (PCIe 5.0 x4).
Einer der interessantesten Aspekte der ASRock Rack MGX-Plattform ist die Implementierung der E1.S-Speicherlösung. Die Hälfte der sage und schreibe 16 E1.S-Laufwerke sind direkt an die CPU angeschlossen, aber noch interessanter ist, dass die anderen 8 an den PCI-e-Switch angeschlossen sind, an den auch die GPU-Backplane angeschlossen ist. Dies stellt mehrere interessante und sehr faszinierende Anwendungsfälle für GPU Direct-Speicher dar.
Am ASRock Rack-Stand werden voraussichtlich fortschrittlichere Serversysteme vorgestellt, darunter der MECAI-NVIDIA GH200 Grace Hopper Superchip-Server, den ASRock Rack Anfang des Jahres auf den Markt gebracht hat. Das neue Serverportfolio von ASRock Rack, das auf der Blackwell-Architektur von NVIDIA basiert, stellt einen bedeutenden Fortschritt in den Bereichen Rechenzentrum und KI-Technologien dar. Diese Systeme bieten außergewöhnliche Leistung, Flexibilität und Skalierbarkeit und erfüllen die Anforderungen von Unternehmen, die die Grenzen von KI und Hochleistungsrechnen erweitern möchten.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed