NVIDIA integrerà migliaia di GPU H200 Tensor Core nell'AI Bridging Cloud Infrastructure 3.0 (ABCI 3.0) giapponese. I sistemi HPE Cray XD con rete NVIDIA Quantum-2 InfiniBand forniranno le prestazioni e la scalabilità richieste da ABCI.
Il Giappone sta per compiere progressi significativi nella ricerca e nello sviluppo dell'intelligenza artificiale integrando migliaia di GPU NVIDIA H200 Tensor Core nella sua AI Bridging Cloud Infrastructure 3.0 (ABCI 3.0). Guidata dall'Istituto nazionale di scienza e tecnologia industriale avanzata (AIST), questa integrazione vedrà il HPE CrayXD sistema dotato di NVIDIA Quantum-2 InfiniBand networking, che promette prestazioni e scalabilità superiori.
ABCI 3.0: Avanzare la ricerca e lo sviluppo dell’IA
ABCI 3.0 rappresenta l’ultima iterazione dell’infrastruttura informatica aperta sull’intelligenza artificiale su larga scala del Giappone, progettata per promuovere la ricerca e lo sviluppo dell’intelligenza artificiale. Questo sviluppo evidenzia la spinta del Giappone a migliorare le capacità di intelligenza artificiale e l’indipendenza tecnologica. Dal lancio dell’ABCI originale nell’agosto 2018, AIST ha accumulato una significativa esperienza nella gestione di infrastrutture IA su larga scala. Basandosi su queste basi, l’aggiornamento ABCI 3.0, in collaborazione con NVIDIA e HPE, mira a elevare le capacità di ricerca e sviluppo dell’intelligenza artificiale generativa del Giappone.
Codifica la tua cultura, l'intelligenza della tua società, il tuo buon senso, la tua storia: sei tu a possedere i tuoi dati – Jensen Huang Presidente e CEO di NVIDIA

Il supercomputer ABCI 3.0 sarà situato a Kashiwa.
Immagine gentilmente concessa dall'Istituto Nazionale di Scienza e Tecnologia Industriale Avanzata.
Il progetto ABCI 3.0 è uno sforzo di collaborazione che coinvolge AIST, la sua controllata AIST Solutions e Hewlett Packard Enterprise (HPE) come integratore di sistema. Questa iniziativa è sostenuta dal Ministero dell'Economia, del Commercio e dell'Industria (METI) del Giappone attraverso il Fondo per la sicurezza economica. Fa parte della più ampia iniziativa da 1 miliardo di dollari di METI per rafforzare le risorse informatiche e investire nel cloud AI computing. Il coinvolgimento di NVIDIA è significativo, con l’azienda che si impegna a sostenere la ricerca nell’intelligenza artificiale generativa, nella robotica e nell’informatica quantistica e a investire in startup di intelligenza artificiale fornendo al contempo ampio supporto al prodotto, formazione e istruzione.
NVIDIA si impegna in Giappone
La collaborazione di NVIDIA con METI sulla ricerca e la formazione sull'intelligenza artificiale fa seguito a una visita del CEO Jensen Huang, che ha sottolineato il ruolo fondamentale delle "fabbriche di intelligenza artificiale" - data center di prossima generazione progettati per attività intensive di intelligenza artificiale - nel trasformare grandi quantità di dati in intelligenza utilizzabile. L’impegno di Huang nel sostenere le ambizioni del Giappone nel campo dell’intelligenza artificiale è in linea con la sua visione che le fabbriche di intelligenza artificiale diventino il fondamento delle moderne economie a livello globale.
La fabbrica dell’intelligenza artificiale diventerà il fondamento delle moderne economie in tutto il mondo – Jensen Huang Presidente e CEO di NVIDIA
ABCI 3.0, con il suo data center ad altissima densità e un design ad alta efficienza energetica, fornirà un’infrastruttura solida per lo sviluppo di applicazioni AI e big data. Il sistema, che dovrebbe essere operativo entro la fine dell’anno e ospitato a Kashiwa vicino a Tokyo, offrirà risorse all’avanguardia per la ricerca e lo sviluppo dell’intelligenza artificiale.
Prestazioni ed efficienza senza pari
La struttura ABCI 3.0 fornirà 6 exaflop di capacità di calcolo IA, una misura delle prestazioni specifiche dell’IA senza scarsità, e 410 petaflop a doppia precisione per la capacità di calcolo generale. Ogni nodo sarà connesso tramite la piattaforma Quantum-2 InfiniBand, offrendo 200 GB/s di larghezza di banda bisezionale. La tecnologia NVIDIA costituisce il fulcro di questa iniziativa, con centinaia di nodi dotati di 8 GPU H200 connesse tramite NVLink, garantendo prestazioni ed efficienza computazionali senza precedenti.
La GPU NVIDIA H200 è un componente rivoluzionario, che offre oltre 140 gigabyte (GB) di memoria HBM3e a 4.8 terabyte al secondo (TB/s). NVIDIA dichiara un miglioramento di 15 volte dell'efficienza energetica rispetto alla piattaforma di generazione precedente di ABCI per i carichi di lavoro AI. Questa memoria più grande e più veloce accelera in modo significativo l'intelligenza artificiale generativa e i modelli LLM (large Language Model), facendo avanzare l'elaborazione scientifica per carichi di lavoro HPC (High Performance Computing) con una migliore efficienza energetica e un costo totale di proprietà inferiore.
Rete avanzata Quantum-2 InfiniBand
L'integrazione di NVIDIA Quantum-2 InfiniBand con le funzionalità di elaborazione in rete consente ai dispositivi di rete di eseguire calcoli sui dati, scaricando il lavoro dalla CPU. Ciò garantisce una comunicazione efficiente, ad alta velocità e a bassa latenza, essenziale per la gestione di carichi di lavoro intensivi di intelligenza artificiale e set di dati di grandi dimensioni.
Le capacità di calcolo e di elaborazione dati di livello mondiale di ABCI accelereranno gli sforzi congiunti di ricerca e sviluppo sull’intelligenza artificiale tra industrie, mondo accademico e governi. Il sostanziale investimento di METI in questo progetto evidenzia la visione strategica del Giappone volta a migliorare le capacità di sviluppo dell’intelligenza artificiale e ad accelerare l’uso dell’intelligenza artificiale generativa. Sovvenzionando lo sviluppo dei supercomputer IA, il Giappone mira a ridurre i tempi e i costi associati allo sviluppo delle tecnologie IA di prossima generazione, posizionandosi così come leader nel panorama globale dell’IA.
Interagisci con StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed