ホーム Enterprise AI の爆発的な導入により、エネルギー効率の高い開発が推進されています

AI の爆発的な導入により、エネルギー効率の高い開発が推進されています

by ハロルド・フリッツ

業界が AI を採用し、コンピューティング インフラストラクチャに統合し続けるにつれて、リソースに負担がかかり、エネルギー効率を維持することが困難になりつつあります。全体として、アクセラレーション コンピューティングとその基礎となるテクノロジーは、NVIDIA GPU、NVIDIA AI、および新しいプロセッサなどの次世代プロセッサを使用して、次世代のイノベーションを開発する効率を実現します。 第 4 世代インテル Xeon スケーラブル 最先端のプロセッサ プラットフォーム。

業界が AI を採用し、コンピューティング インフラストラクチャに統合し続けるにつれて、リソースに負担がかかり、エネルギー効率を維持することが困難になりつつあります。全体として、アクセラレーション コンピューティングとその基礎となるテクノロジーは、NVIDIA GPU、NVIDIA AI、および新しいプロセッサなどの次世代プロセッサを使用して、次世代のイノベーションを開発する効率を実現します。 第 4 世代インテル Xeon スケーラブル 最先端のプロセッサ プラットフォーム。

第 4 世代インテル Xeon スケーラブル プロセッサの発売により、NVIDIA とそのパートナーは、エネルギー効率の高い AI アクセラレーション コンピューティング システムの新世代を開始します。と組み合わせると NVIDIA H100 Tensor コア GPU、これらのシステムは、前世代よりも劇的に高いパフォーマンス、より大規模な、より高い効率を実現します。

新しいシステムはエンタープライズ AI のパフォーマンスと効率を向上させます

NVIDIA と Intel を活用した新しいシステムにより、企業は CPU のみのデータセンター サーバーに比べて 25 倍効率的にワークロードを実行できるようになります。このワットあたりのパフォーマンスを実現することは、消費電力を削減することと同等であり、データセンターが最新のワークロードを加速するためにより多くの電力を供給することを意味します。

新世代の NVIDIA アクセラレーション サーバーにより、トレーニングと推論が高速化され、エネルギー効率が 3.5 倍向上し、実際の節約につながり、AI データ センターの TCO が 3 倍削減されます。

第 4 世代インテル Xeon CPU は PCIe Gen 5 をサポートします

新しい第 4 世代インテル Xeon CPU は PCIe 第 5 世代をサポートし、CPU から NVIDIA GPU およびネットワークへのデータ転送速度を XNUMX 倍に高めます。 PCIe レーンの増加により、GPU の密度が向上し、各サーバー内の高速ネットワーキングが実現します。

メモリ帯域幅の高速化により、AI などのデータ集約型ワークロードのパフォーマンスが向上し、接続あたり最大 400 ギガビット/秒 (Gbps) のネットワーク速度により、サーバーとストレージ間のより高速なデータ転送がサポートされます。

H100 PCIe GPU を搭載した NVIDIA DGX H100 システムおよびサーバーを提供する NVIDIA パートナーの NVIDIA DGX H100 システムおよびサーバーには、以下のライセンスがバンドルされています。 NVIDIA AI Enterpriseは、AI 開発および展開ソフトウェアのエンドツーエンドの安全なクラウドネイティブ スイートであり、効率的なエンタープライズ AI のための完全なプラットフォームを提供します。

NVIDIA Base Command を搭載した NVIDIA DGX H100 システム

NVIDIA DGX H100 システムは、 NVIDIA ベース コマンド 高速化されたデータセンター向けに設計されたオペレーティング システム。各システムには 100 つの NVIDIA H10 GPU が搭載されています。 NVIDIA ConnectX-7 ネットワーク アダプター、デュアル第 4 世代インテル Xeon スケーラブル プロセッサーにより、大規模な生成 AI モデル、大規模な言語モデル、レコメンダー システムなどの構築に必要なパフォーマンスを提供します。

NVIDIA ネットワークと組み合わせることで、このアーキテクチャは効率的なコンピューティングを大規模に強化し、AI トレーニングや HPC ワークロード向けに前世代と比べて最大 9 倍のパフォーマンス、高速化されていない X20 デュアル ソケット サーバーと比べて 40 倍から 86 倍のパフォーマンスを実現すると期待されています。このようなパフォーマンスがあれば、言語モデルのトレーニングに 40 日かかっていた作業が XNUMX 日未満で完了できるようになります。

NVIDIA DGX H100 システムは、 NVIDIA DGX スーパーポッド、最大 1 エクサフロップスの AI パフォーマンスを実現し、大規模なエンタープライズ AI 導入の効率を大幅に向上させます。

NVIDIA パートナーがデータセンターの効率を向上 

AI データセンターのワークロードの場合、NVIDIA H100 GPU を使用すると、企業はアプリケーションをより効率的に構築して展開できるようになります。

ASUS、Atos、Cisco、Dell Technologies、富士通、GIGABYTE、Hewlett Packard Enterprise、Lenovo、QCT、Supermicro を含む NVIDIA パートナーは、H100 GPU および第 4 世代インテル Xeon スケーラブル CPU サーバーの新しいポートフォリオの提供を間もなく開始する予定です。

NVIDIA ConnectX-7 ネットワークとインテル第 4 世代 Xeon スケーラブル プロセッサーを使用してサーバーを接続すると、効率が向上し、インフラストラクチャと電力消費が削減されます。 NVIDIA ConnectX-7 アダプターは、PCIe Gen 5 とイーサネットまたは InfiniBand 経由の 400 Gbps の接続速度をサポートし、サーバーとストレージ間のネットワーク スループットを XNUMX 倍にします。

アダプターは、高度なネットワーク、ストレージ、セキュリティのオフロードをサポートします。 ConnectX-7 は、必要なケーブルとスイッチ ポートの数を減らし、GPU で高速化された大規模な HPC および AI クラスターのネットワーク接続に必要な電力を 17% 以上節約し、これらの新しいサーバーのエネルギー効率の向上に貢献します。

NVIDIA AI エンタープライズ ソフトウェアは、フルスタック AI ソリューションを提供します

これらの次世代システムは、NVIDIA AI Enterprise Suite 向けに最適化されています。 NVIDIA H100 上で実行される NVIDIA AI Enterprise は、データ サイエンス パイプラインを高速化します。予測 AI モデルの開発と展開を合理化し、重要なプロセスを自動化し、データから迅速な洞察を得ることができます。

このソフトウェアは、リファレンス アプリケーション、フレームワーク、事前トレーニングされたモデル、インフラストラクチャの最適化の AI ワークフローを含むフルスタック ソフトウェアの広範なライブラリを備えており、エンタープライズ AI の成功を拡大するための理想的な基盤を提供します。

StorageReview と連携する

ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | TikTok | RSSフィード