Home Enterprise Supermicro breidt A100 GPU-capaciteit uit

Supermicro breidt A100 GPU-capaciteit uit

by Adam Amstrong
Supermicro NIDIA A100

Nadat NVIDIA verschillende GPU-gerelateerde aankondigingen deed tijdens zijn jaarlijkse GTC-evenement, deed Supermicro vandaag waar het goed in is: hardware-ondersteuning aankondigen voor de nieuwste innovatie die op de markt komt. In dit geval heeft Supermicro aangekondigd dat het zijn nieuwe 4U-server heeft uitgebreid om tot acht NVIDIA HGX A100 GPU's te ondersteunen. Het bedrijf heeft ook een 2U-server en ondersteunt maximaal vier A100-gpu's.

Nadat NVIDIA verschillende GPU-gerelateerde aankondigingen deed tijdens zijn jaarlijkse GTC-evenement, deed Supermicro vandaag waar het goed in is: hardware-ondersteuning aankondigen voor de nieuwste innovatie die op de markt komt. In dit geval heeft Supermicro aangekondigd dat het zijn nieuwe 4U-server heeft uitgebreid om tot acht NVIDIA HGX A100 GPU's te ondersteunen. Het bedrijf heeft ook een 2U-server en ondersteunt maximaal vier A100-gpu's.

Supermicro NIDIA A100

De Supermicro-servers voor GPU-systemen, met de NVIDIA HGX A100 GPU's, liepen uiteen van 1U, 2U, 4U en 10U rackmount GPU-systemen. Deze oplossingen werken van edge tot cloud en worden aangedreven door AMD EPYC- of Intel Xeon-processors. Volgens het bedrijf bevatten de 1U GPU-systemen maximaal vier NVIDIA GPU's met NVLink, inclusief NEBS Level 3 gecertificeerd, 5G/Edge-ready SYS-1029GQ. Supermicro's 2U GPU-systemen, zoals SYS-2029GP-TR, kunnen tot zes NVIDIA V100 GPU's ondersteunen met dubbele PCI-E Root complexe mogelijkheden in één systeem. En tot slot ondersteunen de 10U GPU-servers, zoals SYS-9029GP-TNVRT, 16 V100 SXM3 GPU-uitbreidingen met tot Dual Intel Xeon Scalable-processors met ingebouwde AI-versnelling.

Voor de nieuwe servers maakt Supermicro gebruik van een geavanceerd thermisch ontwerp, met aangepaste koellichamen en optionele vloeistofkoeling met NVIDIA HGX A100 4-GPU 8-GPU-baseboards, samen met een nieuwe 4U-server die acht NVIDIA A100 PCI-E GPU's ondersteunt. De nieuwe servers maken gebruik van de Advanced I/O Module (AIOM)-vormfactor van het bedrijf voor meer flexibiliteit in netwerkcommunicatie. AIOM werkt met PCIe gen 4 opslag- en netwerkapparaten die NVIDIA GPUDirect RDMA en GPUDirect Storage met NVME over Fabrics (NVMe-oF) op NVIDIA Mellanox InfiniBand ondersteunen. Al het bovenstaande is bedoeld om knelpunten in alle GPU's te elimineren.

Ten eerste kan het 2U-systeem tot 4 NVIDIA GPU's huisvesten dankzij het thermische koellichaamontwerp. Dit systeem maakt high GPU peer-to-peer communicatie mogelijk via NVIDIA NVLink, tot 8TB DDR4 3200Mhz systeemgeheugen, vijf PCI-E 4.0 I/O-sleuven die GPUDirect RDMA ondersteunen en vier hot-swappable NVMe met GPUDirect Storage-mogelijkheden. Indrukwekkend in een 2U-systeem.

Op naar het grotere systeem, de 4U-server heeft het NVIDIA HGX A100 8-GPU-basisbord, maximaal zes NVMe U.2 en twee NVMe M.2 en tien PCI-E 4.0 x16-slots. Het systeem maakt gebruik van de bovengenoemde AIOM-, NVIDIA NVLink- en NVSwitch-technologie. De use-cases voor deze grote jongen zijn grootschalige deep learning-trainingen, neurale netwerkmodeltoepassingen voor onderzoek of nationale laboratoria, supercomputerclusters en HPC-cloudservices.

Voor maximale GPU-dichtheid heeft Supermicro ook een 8U SuperBlade-behuizing. Deze server ondersteunt maximaal 20 nodes en 40 GPU's met twee single-width GPU's per node, of één NVIDIA Tensor Core A100 PCI-E GPU per node. Het plaatsen van maximaal 20 NVIDIA A100's in één 8U-voetafdruk kan daadwerkelijk kosten besparen, omdat er slechts 8U hoeft te worden gevoed of er ruimte overblijft voor andere apparaten in de racks. Deze SuperBlade biedt een 100% non-blocking HDR 200Gb/s InfiniBand netwerkinfrastructuur om deep learning te versnellen en real-time analyse en besluitvorming mogelijk te maken.

Supermicro

Neem contact op met StorageReview

Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS Feed