Supermicro ha annunciato nuove offerte di server che incorporano le più recenti GPU HGX H200 di NVIDIA (con GPU H200 Tensor Core), destinate a fornire progressi significativi nel campo dell'intelligenza artificiale generativa e della formazione LLM.
Supermicro ha annunciato nuove offerte di server che incorporano le più recenti GPU HGX H200 di NVIDIA (con GPU H200 Tensor Core), destinate a fornire progressi significativi nel campo dell'intelligenza artificiale generativa e della formazione LLM.
L'azienda si sta preparando a rilasciare piattaforme AI che includono sistemi GPU universali sia 8U che 4U, completamente equipaggiati per supportare HGX H200 con configurazioni a 8 GPU e 4 GPU. Questi sistemi vantano una larghezza di banda di memoria migliorata con l'introduzione della tecnologia HBM3e, che presenta quasi il doppio della capacità e una larghezza di banda 1.4 volte superiore rispetto alle generazioni precedenti. Si prevede che questo salto di qualità nell’hardware soddisferà la crescente domanda di compiti computazionali più complessi nella ricerca e nello sviluppo dell’intelligenza artificiale.
Inoltre, Supermicro ha annunciato un server ad alta densità con sistemi NVIDIA HGX H100 a 8 GPU in un sistema 4U raffreddato a liquido, che incorpora le più recenti tecnologie di raffreddamento dell'azienda. Affermandolo come il server GPU ad alte prestazioni più compatto del settore, Supermicro indica che questo sistema consente la più alta densità di capacità di addestramento AI in una singola unità rack fino ad oggi e contribuirà a garantire efficienza in termini di costi ed energia.
La partnership con NVIDIA ha consentito a Supermicro di essere in prima linea nella progettazione di sistemi di intelligenza artificiale, fornendo soluzioni ottimizzate per la formazione sull'intelligenza artificiale e i carichi di lavoro HPC. L’impegno dell’azienda verso una rapida innovazione è evidente nell’architettura del sistema che consente una rapida implementazione sul mercato dei progressi tecnologici. I nuovi sistemi IA sono dotati della tecnologia di interconnessione NVIDIA, come NVLink e NVSwitch, per supportare trasferimenti di dati ad altissima velocità di 900 GB/s e offrono fino a 1.1 TB di memoria HBM3e per nodo, ottimizzando le prestazioni per l'elaborazione parallela degli algoritmi AI.
Supermicro offre una gamma diversificata di server AI, inclusi i sistemi GPU universali 8U e 4U ampiamente utilizzati. Questi sistemi dotati di GPU NVIDIA HGX H100 a quattro e otto vie sono ora pronti per l'installazione delle nuove GPU H200 (che dispongono di 41 GB di memoria con una larghezza di banda di 4.8 TB/s), consentendo tempi di addestramento ancora più rapidi per linguaggi più ampi. Modelli.
Supermicro presenterà il sistema GPU universale 4U al prossimo SC23.
Interagisci con StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS feed