今天在 GPU 技术大会上,NVIDIA 推出了其 CUDA-X AI 平台,它称之为唯一用于加速数据科学的端到端平台。 与此同时,几家主要供应商已经发布了 NVIDIA T4 服务器,其架构旨在运行 CUDA-X AI 加速数据分析、机器学习和深度学习。 与 NVIDIA CUDA-X AI 配对的 NVIDIA T4 GPU 实例即将登陆 AWS Marketplace。 NVIDIA CUDA-X AI 加速库现已在 Microsoft Azure 上可用。
今天在 GPU 技术大会上,NVIDIA 推出了其 CUDA-X AI 平台,它称之为唯一用于加速数据科学的端到端平台。 与此同时,几家主要供应商已经发布了 NVIDIA T4 服务器,其架构旨在运行 CUDA-X AI 加速数据分析、机器学习和深度学习。 与 NVIDIA CUDA-X AI 配对的 NVIDIA T4 GPU 实例即将登陆 AWS Marketplace。 NVIDIA CUDA-X AI 加速库现已在 Microsoft Azure 上可用。
随着越来越多的企业关注 AI 及其潜力,NVIDIA 发布了 CUDA-X AI 以释放其 Tensor Core GPU 的灵活性,这些 GPU 旨在解决端到端 AI 管道问题。 CUDA-X AI 是一系列专门的加速库,NVIDIA 表示可以将机器学习和数据科学工作负载加速多达 50 倍。 GPU 可以加速处理与 AI 相关的大量数据所需的计算。
包括思科、戴尔易安信、富士通、HPE、浪潮、联想和曙光在内的多家供应商均已通过 NVIDIA NGC-Ready 验证,并宣布推出经过微调以运行 NVIDIA CUDA-X AI 加速库的 T4 服务器。 NGC-Ready 计划包含一组由 NVIDIA GPU 和 Tensor Core 提供支持的精选系统,非常适合各种 AI 工作负载。 这些服务器包括:
- 思科 UCS C240 M5
- 戴尔易安信 PowerEdge R740/R740xd
- 富士通PRIMERGY RX2540 M5
- HPE ProLiant DL380 Gen10
- 浪潮NF5280M5
- 联想 ThinkSystem SR670
- 曙光W760-G30
其他几个合作伙伴正在为他们自己的 T4 服务器进行 NGC 验证过程。
在 T4 方面,AWS 宣布推出采用 NVIDIA T2 Tensor Core GPU 的全新 Amazon Elastic Compute Cloud (EC4) G4 实例。 AWS 客户将能够将这些 G4 实例与 NVIDIA GPU 加速软件配对,包括用于加速深度学习、机器学习和数据分析的 NVIDIA CUDA-X AI 库。 新实例还得到 Amazon Elastic Container Service for Kubernetes 的支持,并支持面向创意专业人士的下一代计算机图形。
Microsoft Azure 机器学习 (AML) 服务集成了 RAPIDS,它是 NVIDIA CUDA-X AI 的关键组件。 数据科学家可以使用 RAPIDS on AML 服务来显着减少训练他们的 AI 模型所需的时间,将训练时间从几天缩短到几小时或从几小时缩短到几分钟,具体取决于数据集的大小。
可用性
CUDA-X AI 加速库可作为单独下载或作为容器化软件堆栈从 NVIDIA NGC 软件中心免费提供。 AWS G4 实例预计将在未来几周内可用。 RAPIDS on AML 服务现在可从 Microsoft Azure 获得。