ホーム Enterpriseアクセサリー NVIDIA が ISC でいくつかの発表を行う

NVIDIA が ISC でいくつかの発表を行う

by アダムアームストロング

今年の ISC Digital で、NVIDIA は、 A100 GPU。これに合わせて同社は、スーパーコンピューティング向けの新しいAIプラットフォーム「NVIDIA Mellanox UFM Cyber​​-AI Platform」を発表した。そして、NVIDIA はさらに別のベンチマークを打ち破りました。

今年の ISC Digital で、NVIDIA は、 A100 GPU。これに合わせて同社は、スーパーコンピューティング向けの新しいAIプラットフォーム「NVIDIA Mellanox UFM Cyber​​-AI Platform」を発表した。そして、NVIDIA はさらに別のベンチマークを打ち破りました。

NVIDIA ISC A100 GPU

先月、NVIDIA は新しい Ampere アーキテクチャと 7nm GPU、NVIDIA A100 を発表しました。同社は同時に独自の A100 システムをリリースしました。 NVIDIA は、すべてのトップ ベンダーが A100 の独自バージョンをリリースできるようにする A100 の PCIe フォーム ファクターを発表しました。これらのベンダーとそのシステムには次のものが含まれます。

  • ASUS は、単一サーバーで 4000 つの A10 PCIe GPU を構成できる ESC100A-EXNUMX を提供します。
  • Atos は、2415 つの NVIDIA A100 Tensor コア GPU を搭載した BullSequana XXNUMX システムを提供しています。
  • シスコは、Cisco Unified Computing System サーバおよびハイパーコンバージド インフラストラクチャ システムである Cisco HyperFlex で NVIDIA A100 Tensor コア GPU をサポートする予定です。
  • Dell Technologies は、他の NVIDIA GPU アクセラレータ、ソフトウェア、テクノロジを幅広い製品でサポートしているのと同様に、PowerEdge サーバーおよびソリューション全体で NVIDIA A100 Tensor コア GPU をサポートし、エッジからコア、クラウドに至るワークロードを高速化する予定です。
  • 富士通は、A100 GPU を PRIMERGY サーバー シリーズに導入します。
  • GIGABYTE は、最大 481 個の A0 PCIe GPU をサポートする G492-HA50、G492-Z51、および G10-Z100 サーバーを提供します。一方、G292-Z40 サーバーは最大 XNUMX 個をサポートします。
  • HPE は、HPE ProLiant DL100 Gen380 サーバーで A10 PCIe GPU をサポートし、HPE Apollo 6500 Gen10 システムで高速化された HPC および AI ワークロードをサポートします。
  • INSPURは、A100 PCIE GPU、NF5468M5-D、NF5468A6、NF5468M5、NF100M5488、NF5M5488を使用してNFWAY NBLINKを使用してNF5A5488、NF6M5688、NF6M5888を使用して、NF6M16、NFXNUMXMXNUMX、NFXNUMXAXNUMXを含むXNUMXつのNVIDIA AXNUMX搭載システムをリリースしています。
  • Lenovo は、Lenovo ThinkSystem SR100 AI 対応サーバーなど、一部のシステムで A670 PCIe GPU をサポートします。 Lenovo は、秋に ThinkSystem および ThinkAgile ポートフォリオ全体の可用性を拡大します。
  • One Stop Systems は、最大 4 個の NVIDIA A4 PCIe GPU を備えた OSS 100UV Gen 4 PCIe 拡張システムを提供し、AI および HPC の顧客が Gen XNUMX サーバーをスケールアウトできるようにします。
  • Quanta/QCT は、最大 52 個の NVIDIA A2 PCIe GPU をサポートする D43BV-2U、D52KQ-4U、D100G-XNUMXU など、いくつかの QuantaGrid サーバー システムを提供します。
  • Supermicro は、他の 4U、100U、4.0U GPU サーバーとともに、最大 1 個の NVIDIA A2 PCIe GPU と最大 4 個の追加の高性能 PCI-E XNUMX 拡張スロットをサポートする XNUMXU A+ GPU システムを提供します。

ダウンタイムはどのデータセンターでも発生する可能性がありますが、スーパーコンピューティング データセンターではさらに悪化すると考えられます。 NVIDIA は、NVIDIA Mellanox UFM Cyber​​-AI プラットフォームのリリースにより、InfiniBand データ センターのダウンタイムを最小限に抑えることを目指しています。名前が示すように、このプラットフォームは UFM ポートフォリオの拡張であり、AI を活用してセキュリティの脅威や運用上の問題を検出し、ネットワーク障害を予測します。このプラットフォームは問題や脅威 (ハッカーを含む) を検出するだけでなく、問題を解決するための修正措置を自動的に実行します。

NVIDIA は、TPCx-BB として知られるビッグ データ分析に関するベンチマークをさらに打ち破ることができたと誇らしげに発表しました。 NVIDIA は、16 台の NVIDIA DGX A100 システムを搭載したオープンソース データ サイエンス ソフトウェア ライブラリの RAPIDS スイートを使用しました。以前の記録は 14.5 時間でしたが、ベンチマークを 4.7 分で実行できました。または 19.5 倍高速

NVIDIA

Redditで議論する

StorageReview と連携する

ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | Facebook | RSSフィード