Il keynote di apertura del Computex di NVIDIA ha introdotto le specifiche del server NVIDIA MGX, un'architettura di riferimento modulare per i produttori di sistemi che consente loro di creare in modo rapido ed economico oltre 100 varianti di server per adattarsi a un'ampia gamma di applicazioni AI, calcolo ad alte prestazioni e Omniverse.
Il keynote di apertura del Computex di NVIDIA ha introdotto le specifiche del server NVIDIA MGX, un'architettura di riferimento modulare per i produttori di sistemi che consente loro di creare in modo rapido ed economico oltre 100 varianti di server per adattarsi a un'ampia gamma di applicazioni AI, calcolo ad alte prestazioni e Omniverse.
Produttori come ASRock Rack, ASUS, GIGABYTE, Pegatron, QCT e Supermicro adotteranno MGX per contribuire a ridurre i costi di sviluppo fino al 75% e ridurre i tempi di sviluppo di due terzi a soli sei mesi. MGX fornisce un'architettura di sistema di base ottimizzata per l'elaborazione accelerata per lo chassis del server e consente loro di scegliere GPU, DPU e CPU. Le varianti di progettazione affrontano carichi di lavoro unici, come HPC, scienza dei dati, modelli linguistici di grandi dimensioni, edge computing, grafica e video, intelligenza artificiale aziendale, progettazione e simulazione. MGX può essere facilmente integrato nei data center cloud e aziendali.
Supermicro e QCT saranno i primi a essere lanciati sul mercato, con i modelli MGX che appariranno ad agosto. Un nuovo annuncio da parte di Supermirco ha introdotto il sistema ARS-221GL-NR che include il superchip CPU NVIDIA Grace. Separatamente, un nuovo annuncio di QCT ha introdotto il sistema S74G-2U che utilizzerà il superchip NVIDIA GH200 Grace Hopper. Softbank Corp. prevede inoltre di implementare più data center su vasta scala in tutto il Giappone utilizzando MGX per allocare dinamicamente le risorse GPU tra l'intelligenza artificiale generativa e le applicazioni 5G.
Flessibilità nel design
I data center sono sotto pressione per soddisfare i requisiti di crescita delle capacità di elaborazione e di riduzione delle emissioni di carbonio per affrontare il cambiamento climatico, cercando al contempo di ridurre i costi. Il design modulare di MGX fornisce ai produttori di sistemi gli strumenti per soddisfare i requisiti specifici di budget, erogazione di potenza, progettazione termica e meccanica del cliente.
MGX funziona con diversi fattori di forma ed è compatibile con le generazioni attuali e future di hardware NVIDIA, tra cui:
- Telaio: 1U, 2U, 4U (raffreddamento ad aria o liquido)
- GPU: Portafoglio completo di GPU NVIDIA, incluse le ultime H100, L40, L4
- CPU: Superchip CPU NVIDIA Grace, superchip GH200 Grace Hopper, CPU x86
- Networking: DPU NVIDIA BlueField®-3, adattatori di rete ConnectX-7
MGX è stato progettato per offrire compatibilità flessibile e multigenerazionale con i prodotti NVIDIA garantendo ai costruttori di sistemi la possibilità di riutilizzare i progetti esistenti e adottare facilmente prodotti di prossima generazione. Questo differisce da NVIDIA HGX in quanto si basa su una baseboard multi-GPU connessa a NVLink su misura per scalare per creare sistemi AI e HPC.
Oltre all'hardware, MGX è supportato dallo stack software completo di NVIDIA, che consente agli sviluppatori e alle aziende di creare e accelerare AI, HPC e altre applicazioni. Ciò include NVIDIA AI Enterprise, il livello software della piattaforma NVIDIA AI, che comprende oltre 100 framework, modelli pre-addestrati e strumenti di sviluppo per accelerare l'intelligenza artificiale e la scienza dei dati per lo sviluppo e l'implementazione dell'intelligenza artificiale aziendale completamente supportata.
NVIDIA MGX è compatibile con i server rack Open Compute Project ed Electronic Industries Alliance per una rapida integrazione nei data center aziendali e cloud.
Interagisci con StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed