ホーム EnterpriseAI AWS と NVIDIA の戦略的提携により、生成 AI 向けの新しいスーパーコンピューティング インフラストラクチャ、ソフトウェア、サービスを提供

AWS と NVIDIA の戦略的提携により、生成 AI 向けの新しいスーパーコンピューティング インフラストラクチャ、ソフトウェア、サービスを提供

by ジョーダン・ラナス

AWS re:Invent の基調講演中に、AWS と NVIDIA は人工知能 (AI) の重要な開発を発表しました。 AWS CEO のアダム・セリプスキー氏は、NVIDIA CEO のジェンスン・フアン氏をステージに招き、両社の戦略的提携の取り組みについて詳しく説明しました。このパートナーシップは、最先端のインフラストラクチャ、ソフトウェア、サービスを提供し、生成型 AI イノベーションを促進することを目的としています。このコラボレーションは、NVIDIA の最先端テクノロジーと AWS の堅牢なクラウド インフラストラクチャの融合であり、AI 開発の新時代を切り開きます。

AWS re:Invent の基調講演中に、AWS と NVIDIA は人工知能 (AI) の重要な開発を発表しました。 AWS CEO のアダム・セリプスキー氏は、NVIDIA CEO のジェンスン・フアン氏をステージに招き、両社の戦略的提携の取り組みについて詳しく説明しました。このパートナーシップは、最先端のインフラストラクチャ、ソフトウェア、サービスを提供し、生成型 AI イノベーションを促進することを目的としています。このコラボレーションは、NVIDIA の最先端テクノロジーと AWS の堅牢なクラウド インフラストラクチャの融合であり、AI 開発の新時代を切り開きます。

NVIDIA GH200 Grace Hopper スーパーチップでクラウド AI に革命を起こす

このコラボレーションの基礎となるのは、AWS による NVIDIA の GH200 グレース ホッパー スーパーチップ クラウドプロバイダーとしては初のクラウドへの移行です。これらのスーパーチップは、クラウドベースの AI コンピューティングにおける大きな進歩を表しています。 NVIDIA NVLink および NVSwitch テクノロジーを使用して 200 個の Grace Hopper スーパーチップを接続する GH32 NVL32 マルチノード プラットフォームは、Amazon EC2 インスタンスに統合されます。これらの新しい Amazon EC2 インスタンスは、さまざまな AI、HPC、グラフィックスのワークロードに対応します。

各 GH200 スーパーチップは、同じモジュール上で Arm ベースの Grace CPU と NVIDIA Hopper アーキテクチャ GPU を組み合わせており、単一の EC2 インスタンスが最大 20TB の共有メモリを提供してテラバイト規模のワークロードを処理できるようにします。このセットアップにより、共同顧客は数千の GH200 スーパーチップに拡張でき、AI 研究とアプリケーションに前例のない計算能力を提供できます。

生成 AI、HPC、設計、シミュレーションを大幅に強化

AWS は 2 つの新しい EC5 インスタンス、つまり PXNUMXe インスタンスを導入します。 NVIDIA H200 Tensor コア GPU、大規模かつ最先端の生成 AI および HPC ワークロード向けに設計されています。 G6 インスタンスと G6e インスタンスは、それぞれ NVIDIA L4 GPU と L40S GPU を搭載しており、AI の微調整、推論、グラフィックス、ビデオのワークロードに適しています。 G6e インスタンスは、3D ワークフロー、デジタル ツイン、生成 AI 対応 3D アプリケーションを構築するためのプラットフォームである NVIDIA Omniverse を使用したアプリケーションの開発に特に適しています。

NVIDIA GH200 を搭載した EC2 インスタンスは、4.5TB の HBM3e メモリを搭載します。これは、現在の H7.2 を搭載した EC100 P2d インスタンスと比較して 5 倍の増加です。 CPU から GPU へのメモリ相互接続は、PCIe よりも最大 7 倍高い帯域幅を提供し、アプリケーションで使用できる総メモリを拡張するチップ間通信を可能にします。

GH200 NVL32 を搭載した AWS インスタンスは、液体冷却を備えた AWS 上の最初の AI インフラストラクチャになります。これにより、高密度に配置されたサーバー ラックが最大のパフォーマンスで効率的に動作するようになります。 GH2 NVL200 を搭載した EC32 インスタンスは、次世代 EC2 インスタンスの基盤となるプラットフォームである AWS Nitro System の恩恵も受けられます。 Nitro は、機能の I/O をホスト CPU/GPU から特殊なハードウェアにオフロードし、処理中に顧客のコードとデータを保護する強化されたセキュリティとともに、より安定したパフォーマンスを提供します。

AWS 上の NVIDIA ソフトウェアが生成 AI 開発を促進

もう 1 つの革新的な発表では、AWS 上で実行される NVIDIA ソフトウェアが生成 AI 開発を促進します。 NVIDIA NeMo レトリバー マイクロサービスは、加速されたセマンティック検索を使用して、正確なチャットボットと要約ツールを作成するツールを提供します。

製薬会社は、Amazon SageMaker で利用可能であり、DGX Cloud にも提供される NVIDIA BioNeMo を使用して創薬をスピードアップできます。

AWS は、NVIDIA NeMo フレームワークを活用して、厳選された次世代 Amazon Titan LLM をトレーニングします。 Amazon Robotics は、NVIDIA Omniverse Isaac を使用して、現実世界に展開する前に仮想環境で自律型倉庫を自動化、最適化、計画するためのデジタル ツインを構築しています。

AWS でホストされる NVIDIA DGX クラウド: AI トレーニングの民主化

このパートナーシップのもう 200 つの重要な側面は、AWS での NVIDIA DGX Cloud のホスティングです。この AI トレーニング アズ ア サービスは、GH32 NVLXNUMX を初めて搭載し、単一インスタンスで最大の共有メモリを開発者に提供します。の DGX クラウド AWS 上では、最先端の生成 AI と大規模言語モデル (LLM) のトレーニングが大幅に加速され、パラメータの数は 1 兆を超える可能性があります。このサービスにより、これまでは大規模な計算インフラストラクチャを持つユーザーのみが利用できたハイエンド AI トレーニング リソースへのアクセスが民主化されます。

Project Ceiba: 世界最速の GPU を搭載した AI スーパーコンピューターの構築

野心的な取り組みとして、AWS と NVIDIA は Project Ceiba で協力し、世界最速の GPU を搭載した AI スーパーコンピューターを構築しています。このシステムは、16,384 個の NVIDIA GH200 スーパーチップを搭載し、65 エクサフロップスの AI を処理することができ、NVIDIA の研究開発チームのために AWS によってホストされます。このスーパーコンピューターは NVIDIA の生成 AI イノベーションを推進し、デジタル生物学、ロボット工学、自動運転車、気候予測などの分野に影響を与えるでしょう。

AWS での AI 開発の新時代

AWS と NVIDIA 間のこの連携拡大は、単なる技術の進歩ではありません。それはクラウドベースの AI コンピューティングにおけるパラダイム シフトです。 NVIDIA の高度な AI インフラストラクチャと AWS のクラウド機能を組み合わせることで、このパートナーシップは、さまざまな業界で生成 AI が開発および展開される方法に革命を起こすことになります。医薬品から自動運転車に至るまで、この提携の影響は広大かつ広範囲に及び、AI およびそれを超えた新たな可能性が解き放たれることが約束されています。

NVIDIA

AWS

StorageReview と連携する 

ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | TikTok | RSSフィード