ホーム Enterprise Supermicro が A100 GPU の容量を拡張

Supermicro が A100 GPU の容量を拡張

by アダムアームストロング
スーパーマイクロ ニディア A100

本日、NVIDIA が年次 GTC イベントでいくつかの GPU 関連の発表を行った後、Supermicro は最善を尽くし、市場に投入される最新のイノベーションに対するハードウェア サポートを発表しました。この場合、Supermicro は、最大 4 つの NVIDIA HGX A100 GPU をサポートするために新しい 2U サーバーを拡張したと発表しました。同社には 100U サーバーもあり、最大 XNUMX つの AXNUMX GPU をサポートしています。

本日、NVIDIA が年次 GTC イベントで GPU 関連の発表をいくつか行った後、Supermicro は最善を尽くし、市場に投入される最新のイノベーションに対するハードウェア サポートを発表しました。この場合、Supermicro は、最大 4 つの NVIDIA HGX A100 GPU をサポートするために新しい 2U サーバーを拡張したと発表しました。同社には 100U サーバーもあり、最大 XNUMX つの AXNUMX GPU をサポートしています。

スーパーマイクロ ニディア A100

NVIDIA HGX A100 GPU を搭載した GPU システム用 Supermicro サーバーは、1U、2U、4U、および 10U ラックマウント GPU システムを含む全色域を実行しました。これらのソリューションはエッジからクラウドまで動作し、AMD EPYC または Intel Xeon プロセッサを搭載しています。同社によれば、1U GPU システムには、NEBS レベル 3 認定の 5G/エッジ対応 SYS-1029GQ を含む、NVLink を備えた最大 2 つの NVIDIA GPU が含まれています。 SYS-2029GP-TR などの Supermicro の 100U GPU システムは、10 つのシステムでデュアル PCI-E ルート コンプレックス機能を備えた最大 9029 つの NVIDIA V16 GPU をサポートできます。最後に、SYS-100GP-TNVRT などの 3U GPU サーバーは、AI アクセラレーションを内蔵したデュアル Intel Xeon スケーラブル プロセッサによる XNUMX 個の VXNUMX SXMXNUMX GPU 拡張をサポートします。

新しいサーバーでは、Supermicro は、カスタム ヒートシンクとオプションの液体冷却を備えた高度な熱設計を活用して、NVIDIA HGX A100 4 GPU 8 GPU ベースボードと、4 つの NVIDIA A100 PCI-E GPU をサポートする新しい 4U サーバーを搭載しています。新しいサーバーは、ネットワーク通信の柔軟性を高めるために、同社の Advanced I/O Module (AIOM) フォーム ファクターを利用しています。 AIOM は、NVIDIA Mellanox InfiniBand 上の NVME over Fabrics (NVMe-oF) を備えた NVIDIA GPUDirect RDMA および GPUDirect ストレージをサポートする PCIe 第 XNUMX 世代ストレージおよびネットワーキング デバイスで動作します。上記のすべては、すべての GPU に発生するボトルネックを排除することを目的としています。

まず、2U システムは、サーマル ヒートシンク設計により最大 4 つの NVIDIA GPU を収容できます。このシステムは、NVIDIA NVLink を介した高 GPU ピアツーピア通信、最大 8TB の DDR4 3200Mhz システム メモリ、GPUDirect RDMA をサポートする 4.0 つの PCI-E 2 I/O スロット、および GPUDirect ストレージ機能を備えた XNUMX つのホットスワップ可能な NVMe を可能にします。 XNUMXU システムでも優れた性能を発揮します。

より大きなシステムでは、4U サーバーには NVIDIA HGX A100 8 GPU ベースボード、最大 2 つの NVMe U.2 と 4.0 つの NVMe M.16、および XNUMX 個の PCI-E XNUMX xXNUMX スロットが搭載されています。このシステムは、前述の AIOM、NVIDIA NVLink、および NVSwitch テクノロジーを活用しています。この偉人のユースケースは、大規模な深層学習トレーニング、研究または国立研究所向けのニューラル ネットワーク モデル アプリケーション、スーパーコンピューティング クラスター、および HPC クラウド サービスです。

GPU 密度を最大化するために、Supermicro には 8U SuperBlade エンクロージャもあります。このサーバーは、ノードあたり 20 つのシングル幅 GPU、またはノードあたり 40 つの NVIDIA Tensor Core A100 PCI-E GPU を備えた、最大 20 ノードと 100 GPU をサポートできます。 8 つの 8U フットプリントに最大 100 台の NVIDIA A200 を収めることで、電力を供給する必要があるのは XNUMXU だけになるか、ラック内に他のデバイス用のスペースが残るため、実際にコストを節約できます。この SuperBlade は、XNUMX% ノンブロッキング HDR XNUMXGb/s InfiniBand ネットワーキング インフラストラクチャを提供し、ディープ ラーニングを加速し、リアルタイムの分析と意思決定を可能にします。

スーパーマイクロ

StorageReview と連携する

ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | Facebook | RSSフィード