今天,在重新安排的 GTC(由 NVIDIA 組織的 GPU 技術大會)上,NVIDIA 透露他們已經開始向家電製造商出貨他們的第一款 7nm GPU。 就像 AMD 在兩年前的 7 年發布了 2018nm GPU 一樣,NVIDIA 選擇專注於他們的第一個 7nm GPU 的數據中心用例。 NVIDIA一直強調人工智能和其他高性能計算的發展。 公司甚至 最近買斷了 梅拉諾克斯。 本月早些時候,NVIDIA 宣布他們希望 獲得積雲 以及。
今天,在重新安排的 GTC(由 NVIDIA 組織的 GPU 技術大會)上,NVIDIA 透露他們已經開始向家電製造商出貨他們的第一款 7nm GPU。 就像 AMD 在兩年前的 7 年發布了 2018nm GPU 一樣,NVIDIA 選擇專注於他們的第一個 7nm GPU 的數據中心用例。 NVIDIA一直強調人工智能和其他高性能計算的發展。 公司甚至 最近買斷了 梅拉諾克斯。 本月早些時候,NVIDIA 宣布他們希望 獲得積雲 以及。
NVIDIA 的首款 7nm GPU 是 NVIDIA A100。 A100 基於 NVIDIA 的 Ampere 架構,包含 54 億個晶體管。 與之前的 NVIDIA 數據中心 GPU 一樣,A100 包含 Tensor Core。 Tensor 核心是 GPU 的專用部分,專門設計用於快速執行推理中常用的一種矩陣乘法和加法計算。新的更強大的 GPU 帶來了新的、更強大的 Tensor 核心。 以前,NVIDIA 的 Tensor Cores 最多只能支持 100 位浮點數。 AXNUMX 支持 XNUMX 位浮點運算,精度更高。
A100 的另一個新功能是多實例 GPU 功能。 每個 A100 GPU 都能夠分成多達七個獨立實例,以同時處理大量任務。
NVIDIA A100 規格
晶體管計數 |
54十億 |
模具尺寸 |
826 mm2 |
FP64 CUDA內核 |
3,456 |
FP32 CUDA內核 |
6,912 |
張量核心 |
432 |
流式多處理器 |
108 |
FP64 |
9.7 兆次浮點數 |
FP64 張量核心 |
19.5 兆次浮點數 |
FP32 |
19.5 兆次浮點數 |
TF32 張量核心 |
156 萬億次浮點數 | 312 兆次浮點運算* |
BFLOAT16 張量核心 |
312 萬億次浮點數 | 624 兆次浮點運算* |
FP16 張量核心 |
312 萬億次浮點數 | 624 兆次浮點運算* |
INT8 張量核心 |
624 頂 | 1,248 頂* |
INT4 張量核心 |
1,248 頂 | 2,496 頂* |
GPU內存 |
GB 40 |
GPU內存帶寬 |
1.6 TB / s |
互連線 |
NVLink 600 GB/秒 PCIe Gen4 64 GB/秒 |
多實例 GPU |
各種實例大小,最多 7MIGs @5GB |
外形 |
HGX A4 中的 8/100 SXM GPU |
最大功率 |
400W(SXM) |
除了單一的 A100 GPU,NVIDIA 還同時發布了兩個集群 GPU。 NVIDIA DGX A100 系統具有八個與 NVIDIA NVSwitch 互連的 NVIDIA A100 GPU。 它的弟弟 NVIDIA HGX A100 由四個通過 NVLink 互連的 A100 GPU 組成。 NVLINK 和 NVSwitch 都允許單個 GPU 協同工作以處理大型任務。 NVLink 是真正的全對全互連。 為了在 NVSwitch 互連上處理更多的 GPU,NVIDIA 決定將 GPU 之間的 NVLink 交叉連接在一起。 NVIDIA 已經為新的 A100 加強了他們的全對全互連,將連接性提高了一倍,以支持芯片中更強大的內核。 NVIDIA 聲稱他們的性能比之前的 DGX 系統提高了一倍多。 據他們稱,他們新的八 GPU DGX A100 可以執行令人難以置信的 2 petaflops。 他們的上一代 DGX-100 有 320 個 GPU,但只能管理兩個 petaflops。 我沒想到很快就會對任何擁有 6 petaflops 的系統使用“僅”這個詞,但是當新集群以一半的 GPU 數量將性能提高一倍以上時,這似乎很合適。 DGX A200 還擁有 3.6GB 的內存和九個 NVIDIA Mellanox ConnectX-XNUMX HDR 每秒 XNUMXGb 的網絡接口,總共提供每秒 XNUMXTb 的雙向帶寬。
為了正確看待 DGX A100 的強大功能,世界上第十大最強大的超級計算機以 18 petaflops 為基準。 將幾個 NVIDIA 的新壞小子推到一起,您就擁有了自己的世界級超級計算機。 令人驚訝的是,NVIDIA 發布了一個 DGX SuperPOD 參考架構,它就是這樣做的。 如果該系統的性能與 NVIDIA 聲稱的一樣,那麼接下來的幾個月對於超級計算愛好者來說可能會非常陌生。
回到正常世界,有了更多典型的用例,NVIDIA 還宣布計劃在年底前發布使用其新 GPU 的邊緣服務器。 EGX A100 將僅由一個新的 A100 GPU 提供支持。 NVIDIA 計劃讓 EGX A100 邊緣服務器在 Red Hat Enterprise Linux 上運行。 這些設備可能會使用 NVIDIA 最近收購的 Mellanox ConnectX-6 Dx 網卡來接收高達 200Gbps 的數據,並將其直接發送到 GPU 內存以進行 AI 或 5G 信號處理。 NVIDIA 本身不打算在今年年底之前發布僅包含其中一個新 GPU 的設備,這確實強調了將多個 DGX A100 集群在一起是多麼瘋狂的想法,這些 DGX A100 本身就是八個 AXNUMX 的集群。
參與 StorageReview
電子通訊 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | Facebook | RSS訂閱