Hem Företagcloud Microsoft Azure banar väg för NVIDIA Blackwell-teknik med anpassade serverrack

Microsoft Azure banar väg för NVIDIA Blackwell-teknik med anpassade serverrack

by Frank Morrison

Microsoft Azure har framgångsrikt distribuerat och aktiverat servrar som drivs av NVIDIAs GB200 AI-processorer, vilket markerar en betydande milstolpe inom artificiell intelligens-infrastruktur,

Microsoft Azure har blivit den första molntjänstleverantören att distribuera och aktivera servrar som drivs av NVIDIAs GB200 AI-processorer. I en inlägg på X, visade Azure upp sina anpassade NVIDIA GB200 AI-serverrack och lade till, "Vi optimerar på varje lager för att driva världens mest avancerade AI-modeller och utnyttjar Infiniband-nätverk och innovativ vätskekylning med sluten slinga."

Microsofts implementering har specialdesignade serverrack, som vart och ett rymmer uppskattningsvis 32 B200-processorer. Azure har utvecklat ett avancerat sluten vätskekylningssystem för att hantera den enorma värme som genereras av dessa högpresterande enheter. Den här installationen visar Microsofts engagemang för att tänja på gränserna för AI-beräkningar och expertis inom termisk hantering för nästa generations hårdvara.

Blackwell B200 GPU representerar en avsevärd förbättring av AI-bearbetningskapaciteten. Jämfört med sin föregångare, H100, erbjuder B200:

  • 2.5 gånger högre prestanda för FP8/INT8-operationer (4,500 1,980 TFLOPS/TOPS vs XNUMX XNUMX TOPS)
  • 9 PFLOPS prestanda med FP4-dataformatet

Dessa framsteg kommer att möjliggöra utbildning av komplexa stora språkmodeller (LLM) och potentiellt revolutionera AI-tillämpningar inom olika branscher.

Microsofts vd Satya Nadella betonade företagets pågående samarbete med NVIDIA i ett annat inlägg på X, och sa: "Vårt långvariga partnerskap med NVIDIA och djupa innovationer fortsätter att leda branschen och driver de mest sofistikerade AI-arbetsbelastningarna."

Även om den nuvarande implementeringen verkar vara för teständamål, signalerar det Microsofts beredskap att snart erbjuda Blackwell-baserade servrar för kommersiella arbetsbelastningar. Ytterligare information om Blackwell-servererbjudandet väntas vid Microsofts kommande Tänd konferens i Chicago, planerad till 18-22 november 2024.

Som den första molnleverantören att operationalisera NVIDIA Blackwell-system har Microsoft Azure positionerat sig som ledande inom AI-infrastruktur. Detta drag kommer sannolikt att påskynda utvecklingen av mer avancerade AI-modeller och applikationer, vilket potentiellt kommer att förändra olika sektorer som är beroende av molnbaserade AI-tjänster.

Den framgångsrika implementeringen av dessa högdensitets- och högpresterande datorsystem sätter också en ny standard för datacenterdesign och kylteknik. När fler leverantörer använder liknande teknik kan vi se en förändring i konstruktionen och driften av datacenter för att möta de växande kraven på AI-arbetsbelastningar.

Utplaceringen av Blackwell-serverinstallationer förväntas öka i slutet av 2024 eller början av 2025, vilket sätter scenen för ytterligare en utveckling i AI-landskapet. Microsofts tidiga införande kan ge det en konkurrensfördel när det gäller att attrahera AI-forskare och företag som vill utnyttja de mest avancerade datorresurserna som finns tillgängliga.

Engagera dig med StorageReview

Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Rssflöde