Microsoft Azure ha distribuito e attivato con successo server basati sui processori AI GB200 di NVIDIA, segnando una pietra miliare significativa nell'infrastruttura di intelligenza artificiale,
Microsoft Azure è diventato il primo fornitore di servizi cloud a distribuire e attivare server alimentati dai processori AI GB200 di NVIDIA. In un posta su XAzure ha esposto i propri rack server AI NVIDIA GB200 personalizzati e ha aggiunto: "Stiamo ottimizzando ogni livello per alimentare i modelli AI più avanzati al mondo, sfruttando la rete Infiniband e l'innovativo raffreddamento a liquido a circuito chiuso".
L'implementazione di Microsoft prevede rack per server personalizzati, ciascuno dei quali ospita circa 32 processori B200. Azure ha sviluppato un avanzato sistema di raffreddamento a liquido a circuito chiuso per gestire l'immenso calore generato da queste unità ad alte prestazioni. Questa configurazione dimostra l'impegno di Microsoft nel superare i confini dell'elaborazione AI e l'esperienza nella gestione termica per l'hardware di nuova generazione.
La GPU Blackwell B200 rappresenta un miglioramento sostanziale nelle capacità di elaborazione AI. Rispetto al suo predecessore, l'H100, il B200 offre:
- Prestazioni 2.5 volte superiori per le operazioni FP8/INT8 (4,500 TFLOPS/TOPS contro 1,980 TOPS)
- 9 PFLOPS di prestazioni utilizzando il formato dati FP4
Questi progressi consentiranno la formazione di modelli linguistici complessi (LLM) e rivoluzioneranno potenzialmente le applicazioni dell'intelligenza artificiale in vari settori.
CEO Microsoft Satya Nadella ha sottolineato la collaborazione in corso dell'azienda con NVIDIA in un altro post su X, affermando: "La nostra partnership di lunga data con NVIDIA e la profonda innovazione continuano a guidare il settore, alimentando i carichi di lavoro di intelligenza artificiale più sofisticati".
Sebbene l'attuale distribuzione sembri essere a scopo di test, segnala la disponibilità di Microsoft a offrire server basati su Blackwell per carichi di lavoro commerciali a breve. Ulteriori dettagli sull'offerta di server Blackwell sono attesi al prossimo Accendi la conferenza a Chicago, in programma dal 18 al 22 novembre 2024.
In qualità di primo provider cloud a rendere operativi i sistemi NVIDIA Blackwell, Microsoft Azure si è posizionata come leader nell'infrastruttura AI. Questa mossa probabilmente accelererà lo sviluppo di modelli e applicazioni AI più avanzati, trasformando potenzialmente vari settori che si affidano a servizi AI basati su cloud.
L'implementazione di successo di questi sistemi di elaborazione ad alta densità e alte prestazioni stabilisce anche un nuovo standard per la progettazione dei data center e le tecnologie di raffreddamento. Man mano che più provider adottano tecnologie simili, potremmo assistere a un cambiamento nella costruzione e nel funzionamento dei data center per soddisfare le crescenti richieste di carichi di lavoro AI.
Si prevede che l'implementazione delle installazioni del server Blackwell aumenterà a fine 2024 o inizio 2025, preparando il terreno per un'altra evoluzione nel panorama dell'IA. L'adozione precoce da parte di Microsoft potrebbe darle un vantaggio competitivo nell'attrarre ricercatori e aziende di IA che cercano di sfruttare le risorse di elaborazione più avanzate disponibili.
Interagisci con StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed