AMD 利用其“数据中心和 AI 技术首映式”活动宣布了新产品,并分享了公司将如何塑造下一阶段的数据中心创新。 该公告包括对第 4 代 EPYC(霄龙)处理器系列的更新、新的 AMD Instinct MI300 系列加速器系列以及更新的网络产品组合。
AMD 利用其“数据中心和 AI 技术首映式”活动宣布了新产品,并分享了公司将如何塑造下一阶段的数据中心创新。 该公告包括对第 4 代 EPYC(霄龙)处理器系列的更新、新的 AMD Instinct MI300 系列加速器系列以及更新的网络产品组合。
针对现代数据中心优化的第四代 EPYC(霄龙)处理器
在 AMD 数据中心和 AI 技术首映式开始时发布的第四代 EPYC(霄龙)系列的更新包括满足特定业务需求的工作负载专业化。 AMD 推出了其第 4 代 AMD EPYC 4X97 处理器,之前的代号为“Bergamo”,提供更高的 vCPU 密度和针对在云中运行的应用程序的更高性能。
型号 | 颜色 | 最大线程数 | 默认 TDP | 基频(GHz) | 提升频率。 (GHz) | 三级缓存 (MB) |
9754 | 128 | 256 | 360W | 2.25 | 3.10 | 256 |
9754S | 128 | 128 | 360W | 2.25 | 3.10 | 256 |
9734 | 112 | 224 | 320W | 2.2 | 3.0 | 256 |
AMD 通过此次发布大力推进 AI 生态系统,其中包括全新的第 4 代 AMD EPYC 97X4 处理器。 这些处理器专为满足现代工作负载的特殊需求而设计。 拥有令人印象深刻的 128 个内核(还有其他人想吃馅饼吗?),它们为 AI 应用程序提供了无与伦比的计算能力。
增加的核心数量,以及改进的能源和房地产效率,使这些处理器能够处理复杂的人工智能计算,同时每台服务器支持多达三倍的容器。 这一进步有助于越来越多地采用云原生 AI 应用程序。
型号 | 颜色 | 最大线程数 | 默认 TDP | 基频(GHz) | 提升频率。 (GHz) | 三级缓存 (MB) |
9684X | 96 | 192 | 400W | 2.55 | 3.70 | 1,152 |
9384X | 32 | 64 | 320W | 3.10 | 3.90 | 768 |
9184X | 16 | 32 | 320W | 3.55 | 4.20 | 768 |
最新的 AMD EPYC Zen 4 处理器,配备 3D V-Cache,代号 Genoa-X,在最近的一次技术计算中被确定为领先的 x86 服务器 CPU 规范.org 报告。 这些尖端处理器将 3D V-Cache 带入 96 核 Zen 4 芯片,并提供超过 3GB 的可扩展 L1 缓存,有助于快速进行产品开发。 AMD 声称,这些处理器可以显着加快产品开发速度,每天将设计工作量增加一倍,同时使用更少的服务器和更少的能源。
推进人工智能平台
AMD 提出了通过为客户提供从云到边缘再到端点的一系列硬件产品来增强其人工智能平台的计划,并与行业软件进行广泛合作以创建适应性强且广泛使用的人工智能解决方案。
AMD分享了AMD Instinct MI300系列加速器的细节 系列,包括 AMD Instinct MI300X 加速器,一种用于生成 AI 的高级加速器。
AMD Instinct MI300X 加速器的推出很耐人寻味。 这个尖端的加速处理单元 (APU) 是 AMD 下一代 CDNA 3 加速器架构的一部分,具有高达 192 GB 的 HBM3 内存。 这个广泛的内存池旨在处理要求苛刻的 AI 工作负载,尤其是那些涉及大型语言模型 (LLM) 推理和生成 AI 的工作负载。 MI300X 的巨大容量甚至可以在单个 GPU 加速器上容纳最大的语言模型,例如 Falcon-40B。 这代表了 AI 处理和效率的潜在变革性进步。
将 AMD MI300X 推向市场可能会动摇 NVIDIA 现有的霸主地位,因为它旨在挑战统治市场的领导者 NVIDIA H100。 NVIDIA 持有这个利润丰厚且迅速扩张的细分市场的多数股权,在 AI 服务器中拥有约 60% 至 70% 的市场份额。 此时引入这样一个功能强大的加速器将有利于整个生态系统,这主要与 NVIDIA 的 CUDA 相关。 另外 20% 的贡献来自云服务器提供商定制的专用集成芯片 (ASIC),包括亚马逊的 Inferentia 和 Trainium 芯片,以及 Alphabet 的张量处理单元 (TPU)。
AMD Infinity 架构平台
AMD 还推出了 AMD Infinity 架构平台,将八个 MI300X 加速器整合到一个行业标准设计中,以改进生成式 AI 推理和训练。
MI300X正在出样 从第三季度开始面向主要客户。 首款用于 HPC 和 AI 工作负载的 APU 加速器 AMD Instinct MI3A 现已向客户提供样品。
AMD 强调与行业领导者的合作以汇集一个开放的 AI 生态系统,展示了用于数据中心加速器的 AMD ROCm 软件生态系统。
适用于云和企业的网络产品组合
AMD 还展示了其网络产品组合,其中包括 AMD Pensando DPU、AMD 超低延迟 NIC 和 AMD 自适应 NIC。 AMD Pensando DPU 结合了 具有“零信任安全”和可编程数据包处理器的软件堆栈 创建智能且高性能的 DPU。
AMD 强调了代号为“Giglio”的下一代 DPU,旨在带来 与当前一代产品相比,性能和能效得到提升,预计将于 2023 年底上市。
最终发布的重点是 AMD Pensando Software-in-Silicon Developer Kit (SSDK),给予 客户能够快速开发或迁移服务以部署在 AMD Pensando P4 上 可编程 DPU 与当前实现的现有功能集相协调 AMD Pensando 平台。 AMD Pensando SSDK 使客户能够发挥 AMD Pensando DPU 用于工作和定制网络虚拟化和安全性 他们的基础设施中的功能。
参与 StorageReview
电子报 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | TikTok | RSS订阅