微軟Azure已成功部署並啟動由NVIDIA GB200 AI處理器驅動的伺服器,標誌著人工智慧基礎架構的一個重要里程碑,
Microsoft Azure 已成為第一個部署並啟動由 NVIDIA GB200 AI 處理器支援的伺服器的雲端服務供應商。在一個 在 X 上發帖Azure 展示了他們定制的 NVIDIA GB200 AI 伺服器機架,並補充道:“我們正在每一層進行優化,利用 Infiniband 網路和創新的閉環液體冷卻,為世界上最先進的 AI 模型提供動力。”
Microsoft 的實作採用客製化設計的伺服器機架,每個機架大約容納 32 個 B200 處理器。 Azure 開發了先進的閉環液體冷卻系統來管理這些高效能單元產生的巨大熱量。這項設定展示了微軟致力於突破人工智慧運算界限以及下一代硬體熱管理專業知識的承諾。
Blackwell B200 GPU代表AI處理能力的大幅提升。與其前身 H100 相比,B200 提供:
- FP2.5/INT8 操作效能提升 8 倍(4,500 TFLOPS/TOPS 對比 1,980 TOPS)
- 使用 FP9 資料格式可達到 4 PFLOPS 的效能
這些進步將允許訓練複雜的大語言模型(LLM),並可能徹底改變各行業的人工智慧應用。
微軟首席執行官薩蒂亞·納德拉 在 X 的另一篇文章中強調了該公司與 NVIDIA 的持續合作,並表示:“我們與 NVIDIA 的長期合作夥伴關係和深度創新將繼續引領行業,為最複雜的人工智慧工作負載提供動力。”
雖然目前的部署似乎是出於測試目的,但這標誌著微軟準備很快為商業工作負載提供基於 Blackwell 的伺服器。有關 Blackwell 伺服器產品的更多詳細資訊預計將在 Microsoft 即將舉行的會議上公佈。 點燃會議 定於 18 年 22 月 2024 日至 XNUMX 日在芝加哥舉行。
作為第一家營運 NVIDIA Blackwell 系統的雲端供應商,Microsoft Azure 將自己定位為人工智慧基礎設施領域的領導者。此舉可能會加速更先進的人工智慧模型和應用程式的開發,從而可能改變依賴基於雲端的人工智慧服務的各個行業。
這些高密度、高效能運算系統的成功實施也為資料中心設計和冷卻技術樹立了新標準。隨著越來越多的供應商採用類似的技術,我們可能會見證資料中心的建置和營運發生轉變,以滿足人工智慧工作負載不斷增長的需求。
Blackwell 伺服器安裝的部署預計將在 2024 年底或 2025 年初增加,為人工智慧領域的另一次演進奠定基礎。微軟的早期採用可能會使其在吸引人工智慧研究人員和尋求利用最先進可用運算資源的企業方面具有競爭優勢。
參與 StorageReview
電子報 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | 的TikTok | RSS訂閱