Casa ImpresaAccessori NVIDIA presenta l'intelligenza artificiale CUDA-X al GTC

NVIDIA presenta l'intelligenza artificiale CUDA-X al GTC

by Adam Armstrong

Oggi alla GPU Technology Conference, NVIDIA ha presentato la sua piattaforma AI CUDA-X, quella che definisce l'unica piattaforma end-to-end per l'accelerazione della scienza dei dati. Oltre a ciò, diversi importanti fornitori hanno annunciato server NVIDIA T4 progettati per eseguire analisi dei dati accelerate dall'intelligenza artificiale CUDA-X, machine learning e deep learning. Le istanze GPU NVIDIA T4 abbinate a NVIDIA CUDA-X AI stanno arrivando su AWS Marketplace. E le librerie di accelerazione AI NVIDIA CUDA-X sono ora disponibili su Microsoft Azure.


Oggi alla GPU Technology Conference, NVIDIA ha presentato la sua piattaforma AI CUDA-X, quella che definisce l'unica piattaforma end-to-end per l'accelerazione della scienza dei dati. Oltre a ciò, diversi importanti fornitori hanno annunciato server NVIDIA T4 progettati per eseguire analisi dei dati accelerate dall'intelligenza artificiale CUDA-X, machine learning e deep learning. Le istanze GPU NVIDIA T4 abbinate a NVIDIA CUDA-X AI stanno arrivando su AWS Marketplace. E le librerie di accelerazione AI NVIDIA CUDA-X sono ora disponibili su Microsoft Azure.

Poiché sempre più aziende guardano all'intelligenza artificiale e al suo potenziale, NVIDIA sta rilasciando la sua AI CUDA-X per sbloccare la flessibilità delle sue GPU Tensor Core progettate per affrontare la pipeline AI end-to-end. CUDA-X AI è una serie di librerie di accelerazione specializzate che secondo NVIDIA possono accelerare i carichi di lavoro di machine learning e data science fino a 50 volte. Le GPU possono accelerare il calcolo necessario per elaborare i grandi volumi di dati associati all’intelligenza artificiale.

Diversi fornitori tra cui Cisco, Dell EMC, Fujitsu, HPE, Inspur, Lenovo e Sugon sono convalidati NVIDIA NGC-Ready e stanno annunciando server T4 ottimizzati per eseguire le librerie di accelerazione AI NVIDIA CUDA-X. Il programma NGC-Ready presenta un set selezionato di sistemi basati su GPU NVIDIA con Tensor Core, ideali per un'ampia gamma di carichi di lavoro IA. Questi server includono:

  • Cisco UCS C240 ​​M5
  • Dell EMC PowerEdge R740/R740xd
  • Fujitsu PRIMERGY RX2540 M5
  • HPE ProLiant DL380 Gen10
  • Inspur NF5280M5
  • Lenovo Think System SR670
  • Sugon W760-G30

Diversi altri partner stanno lavorando al processo di convalida NGC per i propri server T4.

Sul fronte T4, AWS ha annunciato le nuove istanze G2 di Amazon Elastic Compute Cloud (EC4) dotate di GPU NVIDIA T4 Tensor Core. I clienti AWS potranno abbinare queste istanze G4 al software di accelerazione GPU NVIDIA, comprese le librerie AI NVIDIA CUDA-X per accelerare il deep learning, l'apprendimento automatico e l'analisi dei dati. Le nuove istanze sono supportate anche da Amazon Elastic Container Service per Kubernetes e supportano la grafica computerizzata di nuova generazione per i professionisti creativi. 

Il servizio Microsoft Azure Machine Learning (AML) ha integrato RAPIDS, un componente chiave di NVIDIA CUDA-X AI. I data scientist possono utilizzare RAPIDS sul servizio AML per ridurre drasticamente il tempo necessario per addestrare i propri modelli di intelligenza artificiale, riducendo i tempi di addestramento da giorni a ore o da ore a minuti, a seconda delle dimensioni del set di dati.

Disponibilità

Le librerie di accelerazione AI CUDA-X sono disponibili gratuitamente come download individuali o come stack software containerizzati dall'hub software NVIDIA NGC. Si prevede che le istanze AWS G4 saranno disponibili nelle prossime settimane. Il servizio RAPIDS on AML è ora disponibile da Microsoft Azure.

NVIDIA CUDA-X

Discuti questa storia

Iscriviti alla newsletter di StorageReview