Computex の基調講演で、AMD の会長兼 CEO であるリサ・スー博士は、AMD Instinct アクセラレータ ファミリの大幅な進歩を明らかにしました。同社は、アクセラレータの複数年にわたる拡張ロードマップを発表し、AIのパフォーマンスとメモリ機能の毎年の向上を約束しました。これは、AI とデータセンターのワークロードにおけるイノベーションの新時代を象徴します。
Computex の基調講演で、AMD の会長兼 CEO であるリサ・スー博士は、AMD Instinct アクセラレータ ファミリの大幅な進歩を明らかにしました。同社は、アクセラレータの複数年にわたる拡張ロードマップを発表し、AIのパフォーマンスとメモリ機能の毎年の向上を約束しました。これは、AI とデータセンターのワークロードにおけるイノベーションの新時代を象徴します。
AMD Instinct MI325X アクセラレータの紹介
更新されたロードマップは、325 年第 4 四半期に発売予定の新しい AMD Instinct MI2024X アクセラレータから始まります。このアクセラレータは、288 GB の HBM3E メモリと 6 テラバイト/秒のメモリ帯域幅を備えています。 Universal Baseboard サーバー設計を採用しており、AMD Instinct MI300 シリーズとの互換性を確保しています。
MI325X は業界をリードするメモリ容量と帯域幅を誇り、競合製品をそれぞれ 2 倍と 1.3 倍上回っています。競合他社よりも 1.3 倍優れたコンピューティング パフォーマンスを提供し、AI ワークロードにとって強力なツールになります。
将来の世代: MI350 および MI400 シリーズ
MI325X に続いて、新しい AMD CDNA 350 アーキテクチャを搭載した AMD Instinct MI4 シリーズが 2025 年に発売される予定です。このシリーズは AI 推論パフォーマンスに大幅な飛躍をもたらし、AMD と比較して最大 35 倍向上すると予測されています。インスティンクトMI300シリーズ。 MI350X アクセラレータは、ユニバーサル ベースボード設計を維持し、高度な 3nm プロセス テクノロジを利用し、FP4 および FP6 AI データタイプをサポートし、最大 288GB の HBM3E メモリを搭載します。
さらに先を見据えて、AMD CDNA「Next」アーキテクチャを搭載したAMD Instinct MI400シリーズは2026年にリリースされる予定です。このシリーズでは、大規模なAIトレーニングと推論のパフォーマンスと効率を強化するように設計された最新の機能が導入されます。タスク。
AMD Instinct MI300X アクセラレータの採用と影響
AMD Instinct MI300X アクセラレータは、Microsoft Azure、Meta、Dell Technologies、HPE、Lenovo などの主要パートナーや顧客から強力に採用されています。 AMD のデータセンター アクセラレーテッド コンピューティング担当コーポレート バイス プレジデントである Brad McCredie 氏は、MI300X アクセラレータの優れたパフォーマンスと価値提案を強調し、AI イノベーションの推進における重要な役割を指摘しました。同氏は、「製品の年間ペースを更新することで、当社は絶え間なくイノベーションのペースを上げ、AI業界をリードする能力とパフォーマンスを提供しており、当社の顧客はデータセンターのAIトレーニングと推論の次の進化を推進することを期待している」と述べた。
AMD AI ソフトウェア エコシステムの進歩
AMD ROCm 6 オープン ソフトウェア スタックは成熟し続けており、AMD Instinct MI300X アクセラレータが一般的な大規模言語モデル (LLM) に対して優れたパフォーマンスを提供できるようになります。 300 つの AMD Instinct MI6X アクセラレータと Meta Llama-3 70B を実行する ROCm 1.3 を使用するサーバーでは、競合他社と比較して XNUMX 倍優れた推論パフォーマンスとトークン生成を達成できます。
さらに、ROCm 300 を搭載した単一の AMD Instinct MI6X アクセラレータは、Mistral-1.2B 上の推論パフォーマンスとトークン生成スループットで競合他社を 7 倍上回ることができます。
AI モデルの最大のリポジトリである Hugging Face と AMD のコラボレーションは、エコシステムの堅牢性をさらに強調します。 Hugging Face は、最も人気のある 700,000 モデルを毎晩テストし、AMD Instinct MI300X アクセラレータのシームレスな機能を確認しています。 AMD はまた、PyTorch、TensorFlow、JAX などの一般的な AI フレームワークを使用したアップストリームの作業を継続し、幅広い互換性と強化されたパフォーマンスを保証します。
AMD ロードマップの主要なハイライト
基調講演中、AMDはAIコンピューティングの需要の高まりに応えるため、AMD Instinctアクセラレータのロードマップの最新の年次ペースを発表しました。これにより、AMD Instinct アクセラレータが次世代のフロンティア AI モデルの開発を推進し続けることが保証されます。
- AMD Instinct MI325X アクセラレータ: 4 年第 2024 四半期に発売されるこのアクセラレータは、288 GB の HBM3E メモリ、毎秒 6 テラバイトのメモリ帯域幅、業界をリードするメモリ容量と帯域幅を備えています。競合他社と比較して 1.3 倍優れたコンピューティング パフォーマンスを提供します。
- AMD Instinct MI350シリーズ: 2025 年に予想される MI350X アクセラレータは、AMD CDNA 4 アーキテクチャに基づいており、高度な 3nm プロセス テクノロジを使用します。 FP4 および FP6 AI データタイプをサポートし、最大 288GB の HBM3E メモリを搭載します。
- AMD Instinct MI400シリーズ: 2026 年に予定されているこのシリーズでは、AMD CDNA の「Next」アーキテクチャを活用し、AI トレーニングと推論パフォーマンスを強化するための新機能を導入します。
業界での広範な採用
AMD Instinct MI300X アクセラレータの需要は増え続けており、多くのパートナーや顧客が要求の厳しい AI ワークロードにこれらのアクセラレータを活用しています。
- Microsoft Azure: Azure OpenAI サービスと新しい Azure ND MI300X V300 仮想マシン用の MI5X アクセラレータを利用します。
- Dellテクノロジ: エンタープライズ AI ワークロード向けに MI300X アクセラレータを PowerEdge XE9680 に統合。
- スーパーマイクロ: AMD Instinct アクセラレータを組み込んだ複数のソリューションを提供します。
- レノボ: ThinkSystem SR685a V3 でハイブリッド AI イノベーションを強化します。
- HPE: MI300X アクセラレータを使用して、HPE Cray XD675 の AI ワークロードを強化します。
AMD が Computex 2024 で拡張された Instinct アクセラレータ ロードマップを発表したことは、同社の AI およびデータセンター戦略における重要なマイルストーンとなります。 AMD Instinct アクセラレータは、毎年の製品アップデート、強化されたパフォーマンス、幅広い業界での採用に取り組んでおり、次世代の AI イノベーションを推進する予定です。
StorageReview と連携する
ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | TikTok | RSSフィード