Casa ImpresaAI La collaborazione strategica tra AWS e NVIDIA offre nuove infrastrutture di supercalcolo, software e servizi per l'intelligenza artificiale generativa

La collaborazione strategica tra AWS e NVIDIA offre nuove infrastrutture di supercalcolo, software e servizi per l'intelligenza artificiale generativa

by Jordan Ranous

Durante il keynote di AWS re:Invent, AWS e NVIDIA hanno annunciato uno sviluppo significativo per l'intelligenza artificiale (AI). Il CEO di AWS Adam Selipsky ha invitato sul palco il CEO di NVIDIA Jensen Huang per approfondire gli sforzi di collaborazione strategica delle due società. Questa partnership è destinata a fornire le infrastrutture, i software e i servizi più avanzati, alimentando le innovazioni dell’intelligenza artificiale generativa. La collaborazione è una combinazione tra la tecnologia all’avanguardia di NVIDIA e la solida infrastruttura cloud di AWS, che segna una nuova era nello sviluppo dell’intelligenza artificiale.

Durante il keynote di AWS re:Invent, AWS e NVIDIA hanno annunciato uno sviluppo significativo per l'intelligenza artificiale (AI). Il CEO di AWS Adam Selipsky ha invitato sul palco il CEO di NVIDIA Jensen Huang per approfondire gli sforzi di collaborazione strategica delle due società. Questa partnership è destinata a fornire le infrastrutture, i software e i servizi più avanzati, alimentando le innovazioni dell’intelligenza artificiale generativa. La collaborazione è una combinazione tra la tecnologia all’avanguardia di NVIDIA e la solida infrastruttura cloud di AWS, che segna una nuova era nello sviluppo dell’intelligenza artificiale.

Rivoluzionare l'intelligenza artificiale nel cloud con i superchip NVIDIA GH200 Grace Hopper

Una pietra miliare di questa collaborazione è l’introduzione da parte di AWS di NVIDIA Superchip GH200 Grace Hopper nel cloud, il primo tra i fornitori di servizi cloud. Questi superchip rappresentano un passo avanti significativo nel campo dell’intelligenza artificiale basata sul cloud. La piattaforma multinodo GH200 NVL32, che collega 32 Grace Hopper Superchip utilizzando le tecnologie NVIDIA NVLink e NVSwitch, sarà integrata nelle istanze Amazon EC2. Queste nuove istanze Amazon EC2 soddisfano vari carichi di lavoro di intelligenza artificiale, HPC e grafica.

Ogni superchip GH200 combina una CPU Grace basata su Arm con una GPU con architettura NVIDIA Hopper sullo stesso modulo, consentendo a una singola istanza EC2 di fornire fino a 20 TB di memoria condivisa per alimentare carichi di lavoro su scala terabyte. Questa configurazione consente ai clienti congiunti di scalare fino a migliaia di superchip GH200, offrendo una potenza computazionale senza precedenti per la ricerca e le applicazioni sull’intelligenza artificiale.

Potenziare l'intelligenza artificiale generativa, l'HPC, la progettazione e la simulazione

AWS sta introducendo tre nuove istanze EC2: le istanze P5e, basate su GPU NVIDIA H200 Tensor Core, sono progettati per carichi di lavoro di intelligenza artificiale e HPC generativi su larga scala e all'avanguardia. Le istanze G6 e G6e, basate rispettivamente su GPU NVIDIA L4 e L40S, sono adatte per carichi di lavoro di ottimizzazione dell'intelligenza artificiale, inferenza, grafica e video. Le istanze G6e sono particolarmente adatte per lo sviluppo di flussi di lavoro 3D, gemelli digitali e applicazioni utilizzando NVIDIA Omniverse, una piattaforma per la creazione di applicazioni 3D generative abilitate all'intelligenza artificiale.

Le istanze EC200 basate su NVIDIA GH2 presenteranno 4.5 TB di memoria HBM3e. Si tratta di un aumento di 7.2 volte rispetto alle attuali istanze EC100 P2d basate su H5. L'interconnessione di memoria CPU-GPU fornirà una larghezza di banda fino a 7 volte superiore rispetto a PCIe, consentendo comunicazioni chip-to-chip che estendono la memoria totale disponibile per le applicazioni.

Le istanze AWS con GH200 NVL32 saranno la prima infrastruttura AI su AWS a disporre di raffreddamento a liquido. Ciò contribuirà a garantire che i rack di server densamente imballati funzionino in modo efficiente con le massime prestazioni. Le istanze EC2 con GH200 NVL32 beneficeranno anche del sistema AWS Nitro, la piattaforma sottostante per le istanze EC2 di prossima generazione. Nitro scarica l'I/O per le funzioni dalla CPU/GPU host all'hardware specializzato, offrendo prestazioni più costanti con maggiore sicurezza per proteggere il codice e i dati del cliente durante l'elaborazione.

Il software NVIDIA su AWS potenzia lo sviluppo dell'intelligenza artificiale generativa

In un altro annuncio rivoluzionario, il software NVIDIA in esecuzione su AWS stimolerà lo sviluppo dell'intelligenza artificiale generativa. NVIDIA NeMo Retriever microservice offrirà strumenti per creare chatbot accurati e strumenti di riepilogo utilizzando il recupero semantico accelerato.

Le aziende farmaceutiche possono accelerare la scoperta di farmaci con NVIDIA BioNeMo, disponibile su Amazon SageMaker e in arrivo su DGX Cloud.

Sfruttando il framework NVIDIA NeMo, AWS formerà alcuni LLM Amazon Titan di prossima generazione selezionati. Amazon Robotics utilizza NVIDIA Omniverse Isaac per creare gemelli digitali per automatizzare, ottimizzare e pianificare magazzini autonomi in ambienti virtuali prima della distribuzione nel mondo reale.

NVIDIA DGX Cloud ospitato su AWS: democratizzazione della formazione sull'intelligenza artificiale

Un altro aspetto fondamentale di questa partnership è l'hosting di NVIDIA DGX Cloud su AWS. Questo AI-training-as-a-service sarà il primo a includere GH200 NVL32, fornendo agli sviluppatori la più grande memoria condivisa in una singola istanza. IL DGX Nube su AWS accelererà in modo significativo la formazione di IA generativa all'avanguardia e di modelli linguistici di grandi dimensioni (LLM), raggiungendo potenzialmente oltre 1 trilione di parametri. Questo servizio democratizza l’accesso a risorse di formazione sull’intelligenza artificiale di fascia alta, precedentemente disponibili solo a chi disponeva di un’infrastruttura computazionale significativa.

Progetto Ceiba: costruire il supercomputer AI basato su GPU più veloce del mondo

Con una mossa ambiziosa, AWS e NVIDIA stanno collaborando al progetto Ceiba per costruire il supercomputer AI basato su GPU più veloce al mondo. Questo sistema, dotato di 16,384 superchip NVIDIA GH200 e in grado di elaborare 65 exaflop di intelligenza artificiale, sarà ospitato da AWS per il team di ricerca e sviluppo di NVIDIA. Il supercomputer promuoverà l’innovazione generativa dell’intelligenza artificiale di NVIDIA, incidendo su aree come la biologia digitale, la robotica, i veicoli autonomi e la previsione del clima.

Una nuova era di sviluppo dell'intelligenza artificiale su AWS

Questa collaborazione ampliata tra AWS e NVIDIA è molto più di un semplice progresso tecnologico; è un cambiamento di paradigma nell’informatica AI basata sul cloud. Combinando l’infrastruttura AI avanzata di NVIDIA e le funzionalità cloud di AWS, questa partnership è destinata a rivoluzionare il modo in cui l’intelligenza artificiale generativa viene sviluppata e distribuita in vari settori. Dai prodotti farmaceutici ai veicoli autonomi, le implicazioni di questa collaborazione sono vaste e di vasta portata, e promettono di sbloccare nuove possibilità nell’intelligenza artificiale e oltre.

NVIDIA

AWS

Interagisci con StorageReview 

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed