Oggi all’SC20, AMD ha lanciato quello che proclama con coraggio come l’acceleratore HPC più veloce al mondo per la ricerca scientifica con AMD Instinct MI100. Potrebbero avere ragione poiché affermano che questa è la prima GPU per server x86 a superare la barriera prestazionale di 10 teraflop (FP64). L'azienda sta combinando le nuove GPU con le sue CPU AMD EPYC di seconda generazione nonché la piattaforma software aperta ROCm 4.0 per raggiungere nuovi numeri impressionanti e aiutare i ricercatori a promuovere nuove scoperte prima dell'era dell'esascala.
Oggi all’SC20, AMD ha lanciato quello che proclama con coraggio come l’acceleratore HPC più veloce al mondo per la ricerca scientifica con AMD Instinct MI100. Potrebbero avere ragione poiché affermano che questa è la prima GPU per server x86 a superare la barriera prestazionale di 10 teraflop (FP64). L'azienda sta combinando le nuove GPU con le sue CPU AMD EPYC di seconda generazione nonché la piattaforma software aperta ROCm 4.0 per raggiungere nuovi numeri impressionanti e aiutare i ricercatori a promuovere nuove scoperte prima dell'era dell'esascala.
È bello vedere un po' di concorrenza spostarsi nello spazio delle GPU di fascia alta. Questo spazio è stato dominato da un'unica azienda per diversi anni. AMD si sta muovendo nello spazio sfruttando la sua nuova architettura AMD CDNA per la GPU AMD Instinct MI100 e quindi combinandola con i suoi popolari e ad alte prestazioni processori AMD EPYC. Si dice che questa combinazione fornisca fino a 11.5 TFLOPS di prestazioni FP64 di picco per HPC e fino a 46.1 TFLOPS di prestazioni FP32 Matrix di picco per carichi di lavoro di intelligenza artificiale e machine learning. L’azienda afferma inoltre un aumento di quasi 7 volte delle prestazioni teoriche di picco in virgola mobile FP16 per i carichi di lavoro di formazione AI (rispetto agli acceleratori della generazione precedente di AMD) con la sua nuova tecnologia AMD Matrix Core.
Oltre alle novità relative alle GPU, l'azienda sta lanciando software per l'elaborazione exascale con il suo ultimo software per sviluppatori AMD ROCm. ROCm è costituito da compilatori, API di programmazione e librerie che aiutano gli sviluppatori exascale quando creano applicazioni ad alte prestazioni. L'ultima versione, ROCm 4.0, è ottimizzata per fornire prestazioni elevate su sistemi basati su MI100, come i framework PyTorch e Tensorflow.
Specifiche AMD Instinct MI100
Unità di calcolo | Processori di streaming | FP64 TFLOPS (Picco) | FP32 TFLOPS (Picco) | TFLOP a matrice FP32
(Picco) |
Matrice FP16/FP16 TFLOPS(Picco) |
INT4 | INT8 SUPERIORI
(Picco) |
bFloat16 TFLOP
(Picco) |
HBM2 ECC Memorie |
Banda di memoria |
120 | 7680 | Fino a 11.5 | Fino a 23.1 | Fino a 46.1 | Fino a 184.6 | Fino a 184.6 | Fino a 92.3 TFLOP | 32GB | Fino a 1.23 TB/s |
Le funzionalità e le caratteristiche principali dell'acceleratore AMD Instinct MI100 includono:
- Nuovissima architettura AMD CDNA: progettata per alimentare le GPU AMD per l'era exascale e nel cuore dell'acceleratore MI100, l'architettura AMD CDNA offre prestazioni eccezionali ed efficienza energetica
- Prestazioni FP64 e FP32 leader del settore per carichi di lavoro HPC – Offre prestazioni FP11.5 di picco di 64 TFLOPS e FP23.1 di picco di 32 TFLOPS, consentendo a scienziati e ricercatori di tutto il mondo di accelerare le scoperte in settori quali scienze della vita, energia, finanza, università, governo, difesa e Di più.
- Nuovissima tecnologia Matrix Core per HPC e AI – Prestazioni potenziate per una gamma completa di operazioni a matrice di precisione singola e mista, come FP32, FP16, bFloat16, Int8 e Int4, progettate per potenziare la convergenza di HPC e AI.
- Tecnologia AMD Infinity Fabric di seconda generazione – Instinct MI2 fornisce circa il doppio della larghezza di banda I/O di picco peer-to-peer (P100P) su PCIe 2 con un massimo di 2 GB/s di larghezza di banda aggregata per scheda con tre AMD Infinity Fabric Link. In un server, le GPU MI4.0 possono essere configurate con un massimo di due hive quad GPU completamente connessi, ciascuno dei quali fornisce fino a 340 GB/s di larghezza di banda I/O P100P per una rapida condivisione dei dati.
- Memoria HBM2 ultraveloce: dispone di memoria HBM32 a larghezza di banda elevata da 2 GB con una frequenza di clock di 1.2 GHz e offre una larghezza di banda di memoria ultraelevata di 1.23 TB/s per supportare set di dati di grandi dimensioni e contribuire a eliminare i colli di bottiglia nello spostamento dei dati dentro e fuori dalla memoria .
- Supporto per l'ultima PCIe Gen 4.0 del settore – Progettato con il supporto della più recente tecnologia PCIe Gen 4.0 che fornisce fino a 64 GB/s di larghezza di banda teorica di picco dei dati di trasporto dalla CPU alla GPU.
Disponibilità
Gli acceleratori AMD Instinct MI100 sono attesi entro la fine dell'anno nei sistemi dei partner OEM e ODM nei mercati aziendali, tra cui Dell, Supermicro, GIGABYTE e HPE.
Interagisci con StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS feed