NVIDIA gab heute bekannt, dass es mit Hilfe einiger seiner globalen Partner neue NVIDIA HGX A100-Systeme auf den Markt bringt. Die neuen Systeme sollen KI und HPC beschleunigen, indem sie NVIDIA-Elemente wie NVIDIA A100 80 GB PCIe GPU, NVIDIA NDR 400G InfiniBand-Netzwerk und NVIDIA Magnum IO GPUDirect Storage-Software hinzufügen. Diese neuen HGX-Systeme werden von Partnern wie Atos, Dell Technologies, Hewlett Packard Enterprise (HPE), Lenovo, Microsoft Azure und NetApp auf den Markt gebracht.
NVIDIA gab heute bekannt, dass es mit Hilfe einiger seiner globalen Partner neue NVIDIA HGX A100-Systeme auf den Markt bringt. Die neuen Systeme sollen KI und HPC beschleunigen, indem sie NVIDIA-Elemente wie NVIDIA A100 80 GB PCIe GPU, NVIDIA NDR 400G InfiniBand-Netzwerk und NVIDIA Magnum IO GPUDirect Storage-Software hinzufügen. Diese neuen HGX-Systeme werden von Partnern wie Atos, Dell Technologies, Hewlett Packard Enterprise (HPE), Lenovo, Microsoft Azure und NetApp auf den Markt gebracht.
NVIDIA stellt seit Jahren leistungsstarke GPUs her. Der aufstrebende KI-Markt, insbesondere im HPC-Bereich, hat dazu geführt, dass immer mehr Supercomputer die Technologie des Unternehmens nutzen. NVIDIA selbst stellt seit einigen Jahren HPC-Server und Workstations mit DGX- und HGX-Modellen her. Letzteres hat mehrere NVIDIA-IPs für eine bessere Leistung unter einem Dach vereint. Die neuen Systeme tun dies erneut mit dem Neuesten und Besten, was NVIDIA zu bieten hat.
NVIDIA A100 80 GB PCIe-GPU
Die NVIDIA A100 wurde letztes Jahr auf der GTC angekündigt. Diese neue 7-nm-GPU nutzt die Ampere-Architektur des Unternehmens und enthält 54 Millionen Transistoren. NVIDIA hat das Produkt mit der Einführung der NVIDIA A100 80 GB PCIe GPU schnell verbessert und den Speicher verdoppelt. Die A100 80GB PCIe GPU ist der erste Teil der neuen HGX A100 Systeme. Seine große Speicherkapazität und hohe Bandbreite ermöglichen die Speicherung von mehr Daten und größeren neuronalen Netzen. Dies bedeutet weniger Kommunikation zwischen den Knoten sowie einen geringeren Energieverbrauch. Der große Speicher ermöglicht auch einen höheren Durchsatz, was zu schnelleren Ergebnissen führen kann.
Wie bereits erwähnt, basiert die NVIDIA A100 80 GB PCIe-GPU auf der Ampere-Architektur des Unternehmens. Diese Architektur verfügt über eine Multi-Instanz-GPU, auch MIG genannt. MIG kann eine Beschleunigung für kleinere Arbeitslasten liefern, z. B. KI-Inferenz. Mit dieser Funktion können Benutzer sowohl die Rechenleistung als auch den Arbeitsspeicher mit garantierter QoS verkleinern.
Zu den Partnern rund um die NVIDIA A100 80 GB PCIe GPU gehören Atos, Cisco, Dell Technologies, Fujitsu, H3C, HPE, Inspur, Lenovo, Penguin Computing, QCT und Supermicro. Es gibt auch einige Cloud-Dienste, die die Technologie bereitstellen, darunter AWS, Azure und Oracle.
NVIDIA NDR 400G InfiniBand-Netzwerk
Das zweite Teil des NVIDIA HGX A100-Systempuzzles sind die neuen NVIDIA NDR 400G InfiniBand-Switch-Systeme. Das klingt vielleicht etwas selbstverständlich, aber HPC-Systeme benötigen einen sehr hohen Datendurchsatz. NVIDIA hat Mellanox vor einigen Jahren für fast 7 Milliarden US-Dollar übernommen. Seitdem wurden kontinuierlich neue Produkte auf den Markt gebracht, während der Name Mellanox langsam zugunsten von NVIDIA abgeschafft wurde. Letztes Jahr wurde das NVIDIA NDR 400G InfiniBand mit der dreifachen Portdichte und der 3-fachen KI-Beschleunigung veröffentlicht. Dies wird über das NVIDIA Quantum-32-Switch-System mit fester Konfiguration in die neuen HGX-Systeme integriert. Dieses System soll 2 NDR-64-Gbit/s-InfiniBand-Ports pro Port oder 400 NDR128-Ports liefern.
Nach Angaben des Unternehmens bieten die neuen modularen NVIDIA Quantum-2-Switches skalierbare Portkonfigurationen von bis zu 2,048 Ports von NDR 400 Gb/s InfiniBand (oder 4,096 Ports von NDR200) mit einem bidirektionalen Gesamtdurchsatz von 1.64 Petabits pro Sekunde. Dies stellt eine über 5-fache Verbesserung gegenüber der vorherigen Generation mit einer 6.5-fach höheren Skalierbarkeit dar. Mithilfe einer DragonFly+-Netzwerktopologie können Benutzer eine Verbindung zu über einer Million Knoten herstellen. Schließlich hat das Unternehmen seiner dritten Generation die NVIDIA SHARP In-Network Computing-Datenreduzierungstechnologie hinzugefügt, die angeblich eine 3-mal höhere KI-Beschleunigung im Vergleich zu früheren Generationen ermöglichen kann.
NVIDIA Quantum-2-Switches sind sowohl abwärts- als auch aufwärtskompatibel. Zu den Fertigungspartnern zählen Atos, DDN, Dell Technologies, Excelero, GIGABYTE, HPE, Lenovo, Penguin, QCT, Supermicro, VAST und WekaIO.
Magnum IO GPUDirect Storage
Das letzte Teil des neuen NVIDIA HDX A100-Puzzles ist der neue Magnum IO GPUDirect Storage. Dies ermöglicht einen direkten Speicherzugriff zwischen GPU-Speicher und Speicher. Dies hat mehrere Vorteile, darunter eine geringere E/A-Latenz, eine übermäßige Nutzung der Bandbreite der Netzwerkadapter und eine geringere Auswirkung auf die CPU. Mehrere Partner verfügen jetzt über Magnum IO GPUDirect Storage, darunter DDN, Dell Technologies, Excelero, HPE, IBM Storage, Micron, NetApp, Pavilion, ScaleFlux, VAST und WekaIO.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | LinkedIn | Instagram | Twitter | Facebook | TikTok | RSS Feed