NVIDIA 宣布推出 Magnum IO 软件套件,旨在帮助数据科学家和 AI 以及高性能计算研究人员非常快速地处理大量数据。 Magnum IO 经过优化以消除存储和输入/输出瓶颈,并且在处理海量数据集时,多服务器、多 GPU 计算节点的数据处理速度提高了二十 (20) 倍。 这将使组织能够执行复杂的财务分析、气候建模和其他 HPC 工作负载。
NVIDIA 宣布推出 Magnum IO 软件套件,旨在帮助数据科学家和 AI 以及高性能计算研究人员非常快速地处理大量数据。 Magnum IO 经过优化以消除存储和输入/输出瓶颈,并且在处理海量数据集时,多服务器、多 GPU 计算节点的数据处理速度提高了二十 (20) 倍。 这将使组织能够执行复杂的财务分析、气候建模和其他 HPC 工作负载。
NVIDIA 与网络和存储领域的行业领导者合作开发 Magnum IO,包括 DataDirect Networks、Excelero、IBM、Mellanox 和 WekaIO。 该软件套件版本还通过 GPUDirect Storage 突出显示,它使研究人员能够在访问存储时绕过 CPU,以便在模拟、分析或可视化等应用程序中快速访问数据文件。
可用性
NVIDIA Magnum IO 软件现已上市,但 GPUDirect Storage 目前仅面向部分早期访问客户提供,并计划于 2020 年上半年发布更广泛的版本。