Home Enterprise AMD EPYC CPUと生成AI向け次世代AMD Instinct Acceleratorを発表

AMD EPYC CPUと生成AI向け次世代AMD Instinct Acceleratorを発表

by ハロルド・フリッツ

AMDは「データセンターとAIテクノロジープレミア」イベントを利用して新製品を発表し、同社がデータセンターイノベーションの次の段階をどのように形成するかを共有した。この発表には、第 4 世代 EPYC プロセッサ ファミリ、新しい AMD Instinct MI300 シリーズ アクセラレータ ファミリ、および更新されたネットワーキング ポートフォリオのアップデートが含まれます。

AMDは「データセンターとAIテクノロジープレミア」イベントを利用して新製品を発表し、同社がデータセンターイノベーションの次の段階をどのように形成するかを共有した。この発表には、第 4 世代 EPYC プロセッサ ファミリ、新しい AMD Instinct MI300 シリーズ アクセラレータ ファミリ、および更新されたネットワーキング ポートフォリオのアップデートが含まれます。

最新のデータセンター向けに最適化された第 4 世代 EPYC プロセッサー

AMDのデータセンターおよびAIテクノロジープレミアの開始時に発表された第4世代EPYCファミリーのアップデートには、特定のビジネス需要に対応するワークロードの特化が含まれています。 AMD は、以前は「Bergamo」というコードネームで呼ばれていた第 4 世代 AMD EPYC 97X4 プロセッサを導入し、クラウドで実行されるアプリケーションを対象とした vCPU 密度の向上とパフォーマンスの向上を実現しました。

モデル コア 最大スレッド数 デフォルトのTDP ベース周波数(GHz) ブースト周波数(GHz) L3 キャッシュ (MB)
9754 128 256 360W 2.25 3.10 256
9754S 128 128 360W 2.25 3.10 256
9734 112 224 320W 2.2 3.0 256

AMD は今回の発表により、新しい第 4 世代 AMD EPYC 97X4 プロセッサーを含む AI エコシステムへの大幅な取り組みを進めています。これらのプロセッサは、最新のワークロードの特殊な要求を満たすように特別に設計されています。 128 コアという驚異的なコア数を備えています (他にパイに飢えている人はいますか?)、AI アプリケーションに比類のない計算能力を提供します。

AMD ベルガモ CPU

コア数の増加とエネルギー効率と不動産効率の向上により、これらのプロセッサはサーバーあたり最大 3 倍のコンテナをサポートしながら、複雑な AI 計算を処理できるようになります。この進歩は、クラウドネイティブ AI アプリケーションの採用の増加に貢献します。

モデル コア 最大スレッド数 デフォルトのTDP ベース周波数(GHz) ブースト周波数(GHz) L3 キャッシュ (MB)
9684X 96 192 400W 2.55 3.70 1,152
9384X 32 64 320W 3.10 3.90 768
9184X 16 32 320W 3.55 4.20 768

4D V-Cache を搭載した最新の AMD EPYC Zen 3 プロセッサ (コード名 Genoa-X) は、最近の技術コンピューティング向けの主要な x86 サーバー CPU として認められています。 SPEC.org 報告。これらの最先端のプロセッサは、3 コア Zen 96 チップに 4D V キャッシュをもたらし、3GB を超える広大な L1 キャッシュを提供するため、迅速な製品開発が容易になります。 AMDによれば、これらのプロセッサは製品開発を大幅にスピードアップし、使用するサーバーとエネルギーを減らしながら、XNUMX日あたり最大XNUMX倍の設計ジョブを実行できるという。

AIプラットフォームの進化

AMDは、クラウドからエッジ、エンドポイントまでの幅広いハードウェア製品を顧客に提供し、業界ソフトウェアと広範に連携して、適応性があり広範なAIソリューションを作成することで、AIプラットフォームを強化する計画を発表しました。

AMDは、AMD Instinct MI300シリーズアクセラレータの詳細を共有しました これには、生成 AI 用の高度なアクセラレータである AMD Instinct MI300X アクセラレータが含まれます。

AMD Instinct MI300X アクセラレータの導入は興味深いものです。この最先端のアクセラレーション プロセッシング ユニット (APU) は、AMD の次世代 CDNA 3 アクセラレータ アーキテクチャの一部であり、最大 192 GB の HBM3 メモリを備えています。この大規模なメモリ プールは、要求の厳しい AI ワークロード、特に大規模言語モデル (LLM) 推論や生成 AI を伴うワークロードに対処できるように設計されています。 MI300X の膨大な容量は、Falcon-40B などの最大の言語モデルにも単一の GPU アクセラレータで対応できます。これは、AI の処理と効率性にとって変革をもたらす可能性のある一歩を表しています。

AMD MI300X が市場に投入されると、市場リーダーである NVIDIA H100 に挑戦するために作られた NVIDIA の既存の優位性が揺るがされる可能性があります。 NVIDIA は、この収益性が高く急速に拡大している市場セグメントの過半数の株式を保有しており、AI サーバーで約 60% ~ 70% の市場シェアを誇っています。現時点でこのような有能なアクセラレータを導入することは、主に NVIDIA の CUDA に関連するエコシステム全体にとって良いことになります。さらに 20% は、Amazon の Inferentia チップや Trainium チップ、Alphabet のテンソル プロセッシング ユニット (TPU) など、クラウド サーバー プロバイダーによって作成された特注の特定用途向け統合チップ (ASIC) によって貢献されます。

AMD Infinity アーキテクチャ プラットフォーム

AMDはまた、AMD Infinity Architecture Platformを導入し、300つのMIXNUMXXアクセラレータを業界標準の設計に統合し、生成AI推論とトレーニングを改善しました。

MI300X はサンプリング中です 第 3 四半期から主要顧客への提供を開始します。 HPC および AI ワークロード向けの最初の APU アクセラレータである AMD Instinct MI300A は現在、顧客向けにサンプル提供されています。

AMDは、オープンAIエコシステムを統合するための業界リーダーとの協力を強調し、データセンターアクセラレータ向けのAMD ROCmソフトウェアエコシステムを紹介しました。   

クラウドとエンタープライズ向けのネットワーキング ポートフォリオ 

AMDはまた、AMD Pensando DPU、AMDを含むネットワークポートフォリオも紹介しました。 超低遅延 NIC、および AMD Adaptive NIC。 AMD Pensando DPU は、 「ゼロトラスト セキュリティ」とプログラム可能なパケット プロセッサを備えたソフトウェア スタック インテリジェントでパフォーマンスの高い DPU を作成します。

AMD は、開発コード名「Giglio」という次世代 DPU を強調しました。 現行世代の製品と比較してパフォーマンスと電力効率が強化されており、2023 年末までに発売される予定です。 

最終的な発表では、AMD Pensando Software-in-Silicon Developer Kit (SSDK) に焦点を当てました。 顧客は、AMD Pensando P4 に展開するサービスを迅速に開発または移行できます。 現在実装されている既存の機能セットと連携するプログラム可能な DPU AMD Pensando プラットフォーム。 AMD Pensando SSDK を使用すると、お客様は次の機能を利用できます。 AMD Pensando DPU が動作し、ネットワークの仮想化とセキュリティを調整します インフラストラクチャ内の機能。 

第 4 世代 AMD EPYC プロセッサー 

AMDInstinctアクセラレーター 

AMD ネットワーキング ソリューション 

StorageReview と連携する

ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | TikTok | RSSフィード