NVIDIA는 데이터 과학자, AI 및 고성능 컴퓨팅 연구원이 방대한 양의 데이터를 매우 빠르게 처리할 수 있도록 설계된 Magnum IO 소프트웨어 제품군을 발표했습니다. Magnum IO는 스토리지 및 입력/출력 병목 현상을 제거하도록 최적화되었으며 대규모 데이터 세트로 작업할 때 다중 서버, 다중 GPU 컴퓨팅 노드에서 20배 더 빠른 데이터 처리 속도로 인용됩니다. 이를 통해 조직은 복잡한 재무 분석, 기후 모델링 및 기타 HPC 워크로드를 수행할 수 있습니다.
NVIDIA는 데이터 과학자, AI 및 고성능 컴퓨팅 연구원이 방대한 양의 데이터를 매우 빠르게 처리할 수 있도록 설계된 Magnum IO 소프트웨어 제품군을 발표했습니다. Magnum IO는 스토리지 및 입력/출력 병목 현상을 제거하도록 최적화되었으며 대규모 데이터 세트로 작업할 때 다중 서버, 다중 GPU 컴퓨팅 노드에서 20배 더 빠른 데이터 처리 속도로 인용됩니다. 이를 통해 조직은 복잡한 재무 분석, 기후 모델링 및 기타 HPC 워크로드를 수행할 수 있습니다.
NVIDIA는 DataDirect Networks, Excelero, IBM, Mellanox 및 WekaIO를 포함한 Magnum IO를 개발하기 위해 네트워킹 및 스토리지 분야의 업계 리더와 협력했습니다. 이 소프트웨어 제품군 릴리스는 시뮬레이션, 분석 또는 시각화와 같은 애플리케이션에서 데이터 파일에 빠르게 액세스하기 위해 스토리지에 액세스할 때 연구원이 CPU를 우회할 수 있는 기능을 제공하는 GPUDirect 스토리지에서도 강조됩니다.
유효성
현재 NVIDIA Magnum IO 소프트웨어를 사용할 수 있지만, GPUDirect Storage는 현재 2020년 상반기로 예정된 더 광범위한 릴리스와 함께 일부 얼리 액세스 고객에게만 제공됩니다.