Quest'anno all'ISC Digital NVIDIA ha fatto una manciata di annunci relativi al suo GPU A100. Insieme a questo, la società ha annunciato una nuova piattaforma AI per il supercalcolo, NVIDIA Mellanox UFM Cyber-AI Platform. E NVIDIA ha superato ancora un altro benchmark.
Quest'anno all'ISC Digital NVIDIA ha fatto una manciata di annunci relativi al suo GPU A100. Insieme a questo, la società ha annunciato una nuova piattaforma AI per il supercalcolo, NVIDIA Mellanox UFM Cyber-AI Platform. E NVIDIA ha superato ancora un altro benchmark.
Il mese scorso, NVIDIA ha annunciato la sua nuova architettura Ampere e la sua GPU da 7 nm, la NVIDIA A100. Allo stesso tempo, l'azienda ha rilasciato il proprio sistema A100. NVIDIA ha annunciato un fattore di forma PCIe per l'A100 che consente a tutti i principali fornitori di rilasciare la propria versione di A100. Questi fornitori e i loro sistemi includono:
- ASUS offrirà l'ESC4000A-E10, che può essere configurato con quattro GPU A100 PCIe in un singolo server.
- Atos offre il suo sistema BullSequana X2415 con quattro GPU NVIDIA A100 Tensor Core.
- Cisco prevede di supportare le GPU NVIDIA A100 Tensor Core nei suoi server Cisco Unified Computing System e nel suo sistema di infrastruttura iperconvergente, Cisco HyperFlex.
- Dell Technologies prevede di supportare le GPU NVIDIA A100 Tensor Core sui suoi server e soluzioni PowerEdge che accelerano i carichi di lavoro dall'edge al core fino al cloud, così come supporta altri acceleratori GPU, software e tecnologie NVIDIA in un'ampia gamma di offerte.
- Fujitsu sta introducendo le GPU A100 nella sua linea di server PRIMERGY.
- GIGABYTE offrirà server G481-HA0, G492-Z50 e G492-Z51 che supportano fino a 10 GPU A100 PCIe, mentre il server G292-Z40 ne supporta fino a otto.
- HPE supporterà le GPU PCIe A100 nel server HPE ProLiant DL380 Gen10 e per carichi di lavoro HPC e IA accelerati nel sistema HPE Apollo 6500 Gen10.
- Inspur sta rilasciando otto sistemi basati su NVIDIA A100, tra cui NF5468M5, NF5468M6 e NF5468A5 che utilizzano GPU A100 PCIe, NF5488M5-D, NF5488A5, NF5488M6 e NF5688M6 che utilizzano NVLink a otto vie e NF5888M6 con NVLink a 16 vie.
- Lenovo supporterà le GPU A100 PCIe su sistemi selezionati, incluso il server Lenovo ThinkSystem SR670 AI-ready. Lenovo espanderà la disponibilità del suo portafoglio ThinkSystem e ThinkAgile in autunno.
- One Stop Systems offrirà il suo sistema di espansione OSS 4UV Gen 4 PCIe con un massimo di otto GPU NVIDIA A100 PCIe per consentire ai clienti AI e HPC di scalare i propri server Gen 4.
- Quanta/QCT offrirà diversi sistemi server QuantaGrid, tra cui D52BV-2U, D43KQ-2U e D52G-4U che supportano fino a otto GPU NVIDIA A100 PCIe.
- Supermicro offrirà il suo sistema GPU 4U A+, supportando fino a otto GPU NVIDIA A100 PCIe e fino a due slot di espansione PCI-E 4.0 aggiuntivi ad alte prestazioni insieme ad altri server GPU 1U, 2U e 4U.
I tempi di inattività sono qualcosa che può affliggere qualsiasi data center, ma può essere considerato peggiore nei data center di supercalcolo. NVIDIA sta cercando di ridurre al minimo i tempi di inattività nei data center InfiniBand con il rilascio della piattaforma NVIDIA Mellanox UFM Cyber-AI. Come suggerisce il nome, la piattaforma è un’estensione del portafoglio UFM e sfrutta l’intelligenza artificiale per rilevare minacce alla sicurezza e problemi operativi, nonché prevedere guasti alla rete. La piattaforma non solo rileva problemi e minacce (inclusi gli hacker), ma adotta automaticamente azioni correttive per risolvere i problemi.
NVIDIA ha annunciato con orgoglio di essere stata in grado di superare un altro punto di riferimento, quello relativo all'analisi dei Big Data noto come TPCx-BB. NVIDIA ha utilizzato la suite RAPIDS di librerie software di data science open source alimentate da 16 sistemi NVIDIA DGX A100. Sono stati in grado di eseguire il benchmark in 14.5 minuti rispetto al record precedente di 4.7 ore. O 19.5 volte più veloce
Interagisci con StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS feed