Oggi, alla riprogrammata GTC (GPU Technology Conference organizzata da NVIDIA), NVIDIA ha rivelato di aver iniziato a spedire la sua prima GPU da 7 nm ai produttori di elettrodomestici. Proprio come AMD, che ha rilasciato una GPU da 7 nm due anni fa nel 2018, NVIDIA ha scelto di concentrarsi sui casi d'uso dei data center per la sua prima GPU da 7 nm. NVIDIA ha enfatizzato gli sviluppi nel campo dell'intelligenza artificiale e di altri sistemi di calcolo ad alte prestazioni. Anche l'azienda recentemente acquistato Mellanox. All'inizio di questo mese, NVIDIA ha annunciato che stava cercando di farlo acquisire Cumulus come pure.
Oggi, alla riprogrammata GTC (GPU Technology Conference organizzata da NVIDIA), NVIDIA ha rivelato di aver iniziato a spedire la sua prima GPU da 7 nm ai produttori di elettrodomestici. Proprio come AMD, che ha rilasciato una GPU da 7 nm due anni fa nel 2018, NVIDIA ha scelto di concentrarsi sui casi d'uso dei data center per la sua prima GPU da 7 nm. NVIDIA ha enfatizzato gli sviluppi nel campo dell'intelligenza artificiale e di altri sistemi di calcolo ad alte prestazioni. Anche l'azienda recentemente acquistato Mellanox. All'inizio di questo mese, NVIDIA ha annunciato che stava cercando di farlo acquisire Cumulus come pure.
La prima GPU da 7 nm di NVIDIA è la NVIDIA A100. L'A100 si basa sull'architettura Ampere di NVIDIA e contiene 54 miliardi di transistor. Come le precedenti GPU per data center NVIDIA, l'A100 include Tensor Core. I tensor core sono parti specializzate della GPU progettate specificamente per eseguire rapidamente un tipo di moltiplicazione di matrici e calcoli di addizione comunemente utilizzati nell'inferenza. Con le nuove GPU più robuste, arrivano nuovi tensor core più robusti. In precedenza, i Tensor Core di NVIDIA potevano supportare solo numeri in virgola mobile fino a trentadue bit. L'A100 supporta operazioni a virgola mobile a sessantaquattro bit, consentendo una precisione molto maggiore.
Un'altra novità dell'A100 è la funzionalità GPU multi-istanza. Ogni GPU A100 è in grado di suddividersi in un massimo di sette istanze indipendenti per affrontare un gran numero di attività contemporaneamente.
Specifiche NVIDIA A100
Conta transistor |
54 miliardi |
Die Size |
826 mm2 |
Core CUDA FP64 |
3,456 |
Core CUDA FP32 |
6,912 |
Tensor Core |
432 |
Multiprocessori in streaming |
108 |
FP64 |
9.7 teraFLOPS |
Nucleo tensoriale FP64 |
19.5 teraFLOPS |
FP32 |
19.5 teraFLOPS |
Nucleo Tensoriale TF32 |
156 teraFLOPS | 312 teraFLOPS* |
BFLOAT16 Nucleo Tensoriale |
312 teraFLOPS | 624 teraFLOPS* |
Nucleo tensoriale FP16 |
312 teraFLOPS | 624 teraFLOPS* |
Nucleo Tensoriale INT8 |
624 TOP | 1,248 TOP* |
Nucleo Tensoriale INT4 |
1,248 TOP | 2,496 TOP* |
Memoria GPU |
40 GB |
Larghezza di banda della memoria della GPU |
1.6 TB / s |
Collegamenti |
NVLink 600 GB/s PCIe Gen4 64 GB/s |
GPU multiistanza |
Varie dimensioni di istanze con un massimo di 7MIG a 5 GB |
Fattore di forma |
4/8 GPU SXM nell'HGX A100 |
Potenza Massima |
400 W (SXM) |
Oltre alla singola GPU A100, NVIDIA sta rilasciando contemporaneamente anche due GPU in cluster. Il sistema NVIDIA DGX A100 è dotato di otto GPU NVIDIA A100 interconnesse con NVIDIA NVSwitch. Il fratello minore, NVIDIA HGX A100, è composto da quattro GPU A100 interconnesse tramite NVLink. Sia NVLINK che NVSwitch consentono alle singole GPU di lavorare insieme su compiti di grandi dimensioni. NVLink è una vera interconnessione all-to-all. Per gestire il maggior numero di GPU sulle interconnessioni NVSwitch, NVIDIA ha optato per la connessione incrociata degli NVLink tra le GPU insieme. NVIDIA ha potenziato l'interconnessione all-to-all per il nuovo A100, raddoppiando la connettività per supportare i core molto più potenti nei chip. NVIDIA afferma di aver più che raddoppiato le prestazioni del precedente sistema DGX. Secondo loro, le loro nuove otto GPU DGX A100 possono raggiungere l'incredibile cifra di cinque petaflop. La loro generazione precedente, il DGX-2, ha sedici GPU, ma gestisce solo due petaflop. Non mi aspettavo di usare presto la parola "solo" con qualsiasi sistema che vantasse due petaflop, ma quando il nuovo cluster ha più che raddoppiato le prestazioni con la metà del numero di GPU, sembra appropriato. Il DGX A100 vanta anche 320 GB di memoria e nove interfacce di rete NVIDIA Mellanox ConnectX-6 HDR da 200 Gb al secondo, offrendo un totale di 3.6 Tb al secondo di larghezza di banda bidirezionale.
Per mettere in prospettiva la pura potenza del DGX A100, il decimo supercomputer più potente al mondo ha un benchmark di 18 petaflop. Metti insieme un paio di nuovi cattivi ragazzi di NVIDIA e avrai il tuo supercomputer di livello mondiale. Sorprendentemente, NVIDIA ha rilasciato un'architettura di riferimento DGX SuperPOD che fa proprio questo. Se il sistema funzionerà come affermato da NVIDIA, i prossimi mesi potrebbero essere molto strani per gli appassionati di supercalcolo.
Tornando al mondo normale, con casi d'uso più tipici, NVIDIA ha anche annunciato l'intenzione di rilasciare un server edge utilizzando le nuove GPU entro la fine dell'anno. L'EGX A100 sarà alimentato da una sola delle nuove GPU A100. NVIDIA prevede che il server edge EGX A100 venga eseguito su Red Hat Enterprise Linux. Gli apparecchi utilizzeranno probabilmente le schede di rete Mellanox ConnectX-6 Dx recentemente acquisite da NVIDIA per ricevere fino a 200 Gbps di dati e inviarli direttamente alla memoria GPU per l'elaborazione del segnale AI o 5G. Il fatto che NVIDIA stessa non abbia intenzione di rilasciare un'appliance con solo una delle loro nuove GPU fino alla fine dell'anno sottolinea davvero quale idea folle raggruppare più DGX A100, che a loro volta sono cluster di otto A100, insieme.
Interagisci con StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS feed