오늘 NetApp Insight에서 이 회사는 가상화 AI 인프라 회사인 Run:AI와 협력하여 전체 GPU를 활용하여 더 빠른 AI 실험을 가능하게 한다고 발표했습니다. 두 회사는 무제한 컴퓨팅 리소스를 활용하여 데이터에 빠르게 액세스하고 많은 실험을 병렬로 실행하여 AI 속도를 높일 것입니다. 목표는 모든 세계에서 최고입니다. 즉, 전체 리소스를 활용하면서 더 빠른 실험을 하는 것입니다.
오늘 NetApp Insight에서 이 회사는 가상화 AI 인프라 회사인 Run:AI와 협력하여 전체 GPU를 활용하여 더 빠른 AI 실험을 가능하게 한다고 발표했습니다. 두 회사는 무제한 컴퓨팅 리소스를 활용하여 데이터에 빠르게 액세스하고 많은 실험을 병렬로 실행하여 AI 속도를 높일 것입니다. 목표는 모든 세계에서 최고입니다. 즉, 전체 리소스를 활용하면서 더 빠른 실험을 하는 것입니다.
속도는 대부분의 최신 워크로드에서 중요한 측면이 되었습니다. 그러나 AI 실험은 실험이 빠를수록 성공적인 비즈니스 결과에 더 가깝기 때문에 속도와 좀 더 밀접하게 연결되어 있습니다. 이것이 비밀은 아니지만 AI 프로젝트는 주로 데이터 처리 시간과 오래된 스토리지 솔루션의 조합으로 효율성을 떨어뜨리는 프로세스로 인해 어려움을 겪고 있습니다. 실행된 실험 수를 제한할 수 있는 다른 문제는 워크로드 오케스트레이션 문제 및 GPU 컴퓨팅 리소스의 정적 할당입니다.
NetApp AI와 Run:AI는 위 문제를 해결하기 위해 협력하고 있습니다. 즉, 딥 러닝(DL)을 위한 데이터 파이프라인 및 머신 스케줄링 프로세스를 간소화하여 AI 워크로드 오케스트레이션을 단순화합니다. NetApp ONTAP AI의 입증된 아키텍처를 통해 회사는 고객이 데이터 파이프라인을 단순화, 가속화 및 통합함으로써 AI 및 DL을 더 잘 실현할 수 있다고 말합니다. Run:AI 측면에서 AI 워크로드의 오케스트레이션은 독자적인 Kubernetes 기반 스케줄링 및 리소스 활용 플랫폼을 추가하여 연구원이 GPU 활용을 관리하고 최적화하도록 돕습니다. 결합된 기술을 통해 중앙 집중식 저장소의 많은 데이터 세트에 빠르게 액세스하여 여러 컴퓨팅 노드에서 여러 실험을 병렬로 실행할 수 있습니다.
Run:AI는 AI 인프라를 위한 세계 최초의 오케스트레이션 및 가상화 플랫폼을 구축했습니다. 하드웨어에서 워크로드를 추상화하고 동적으로 프로비저닝할 수 있는 GPU 리소스의 공유 풀을 생성합니다. NetApp의 스토리지 시스템에서 이를 실행하면 연구원들이 병목 현상에 대한 걱정 없이 작업에 집중할 수 있습니다.
StorageReview에 참여
뉴스레터 | 유튜브 | 팟캐스트 iTunes/스포티 파이 | 인스타그램 | 트위터 | 페이스북 | RSS 피드