Casa Impresa Supermicro espande la capacità della GPU A100

Supermicro espande la capacità della GPU A100

by Adam Armstrong
Supermicro NIDIA A100

Oggi, dopo che NVIDIA ha fatto diversi annunci relativi alle GPU durante il suo evento annuale GTC, Supermicro ha fatto quello che sa fare meglio, annunciando il supporto hardware per l'ultima innovazione arrivata sul mercato. In questo caso, Supermicro ha annunciato di aver ampliato il suo nuovo server 4U per supportare fino a otto GPU NVIDIA HGX A100. L'azienda dispone anche di un server 2U e supporta fino a quattro GPU A100.

Oggi, dopo che NVIDIA ha fatto diversi annunci relativi alle GPU durante il suo evento annuale GTC, Supermicro ha fatto quello che sa fare meglio, annunciando il supporto hardware per l'ultima innovazione arrivata sul mercato. In questo caso, Supermicro ha annunciato di aver ampliato il suo nuovo server 4U per supportare fino a otto GPU NVIDIA HGX A100. L'azienda dispone anche di un server 2U e supporta fino a quattro GPU A100.

Supermicro NIDIA A100

I server Supermicro per sistemi GPU, con le GPU NVIDIA HGX A100, includevano sistemi GPU con montaggio su rack 1U, 2U, 4U e 10U. Queste soluzioni funzionano dall'edge al cloud e sono basate su processori AMD EPYC o Intel Xeon. Secondo l'azienda, i sistemi GPU 1U contengono fino a quattro GPU NVIDIA con NVLink, incluso SYS-3GQ certificato NEBS Livello 5, 1029G/Edge-ready. I sistemi GPU 2U di Supermicro, come SYS-2029GP-TR, possono supportare fino a sei GPU NVIDIA V100 con doppia funzionalità PCI-E Root Complex in un unico sistema. Infine, i server GPU 10U, come SYS-9029GP-TNVRT, supportano 16 espansioni GPU V100 SXM3 con processori scalabili Dual Intel Xeon con accelerazione AI integrata.

Per i nuovi server, Supermicro sta sfruttando un design termico avanzato, con dissipatori di calore personalizzati e raffreddamento a liquido opzionale per includere schede base NVIDIA HGX A100 a 4 GPU e 8 GPU, insieme a un nuovo server 4U che supporta otto GPU NVIDIA A100 PCI-E. I nuovi server utilizzano il fattore di forma AIOM (Advanced I/O Module) dell’azienda per una maggiore flessibilità nella comunicazione di rete. AIOM funziona con dispositivi di storage e rete PCIe gen 4 che supportano NVIDIA GPUDirect RDMA e GPUDirect Storage con NVME over Fabrics (NVMe-oF) su NVIDIA Mellanox InfiniBand. Tutto quanto sopra mira a eliminare i colli di bottiglia in tutte le GPU.

Innanzitutto, il sistema 2U può ospitare fino a 4 GPU NVIDIA grazie al design del dissipatore termico. Questo sistema consente un'elevata comunicazione peer-to-peer GPU tramite NVIDIA NVLink, fino a 8 TB di memoria di sistema DDR4 3200 Mhz, cinque slot I/O PCI-E 4.0 che supportano GPUDirect RDMA e quattro NVMe sostituibili a caldo con funzionalità di archiviazione GPUDirect. Impressionante in un sistema 2U.

Passando al sistema più grande, il server 4U ha la scheda base NVIDIA HGX A100 a 8 GPU, fino a sei NVMe U.2 e due NVMe M.2 e dieci slot PCI-E 4.0 x16. Il sistema sfrutta la tecnologia AIOM, NVIDIA NVLink e NVSwitch sopra menzionata. I casi d'uso per questo pezzo grosso sono la formazione sul deep learning su larga scala, le applicazioni di modelli di rete neurale per laboratori di ricerca o nazionali, cluster di supercalcolo e servizi cloud HPC.

Per la massima densità GPU, Supermicro dispone anche di un contenitore SuperBlade 8U. Questo server può supportare fino a 20 nodi e 40 GPU con due GPU a larghezza singola per nodo o una GPU NVIDIA Tensor Core A100 PCI-E per nodo. Installare fino a 20 NVIDIA A100 in un ingombro di 8U può effettivamente far risparmiare sui costi, essendo solo 8U da alimentare o lasciando spazio per altri dispositivi nei rack. Questo SuperBlade fornisce un'infrastruttura di rete InfiniBand HDR 100Gb/s al 200% senza blocchi per accelerare l'apprendimento profondo e consentire analisi e processi decisionali in tempo reale.

Supermicro

Interagisci con StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS feed