홈페이지 Enterprise 슈퍼마이크로, A100 GPU 용량 확장

슈퍼마이크로, A100 GPU 용량 확장

by 아담 암스트롱
슈퍼마이크로 NIDIA A100

오늘 엔비디아가 연례 GTC 행사에서 여러 GPU 관련 발표를 한 후, 슈퍼마이크로는 최선을 다해 최신 혁신 기술이 시장에 출시될 수 있도록 하드웨어 지원을 발표했습니다. 이 경우, Supermicro는 최대 4개의 NVIDIA HGX A100 GPU를 지원하도록 새로운 2U 서버를 확장했다고 발표했습니다. 이 회사는 또한 100U 서버를 보유하고 있으며 최대 XNUMX개의 AXNUMX GPU를 지원합니다.

오늘 엔비디아가 연례 GTC 행사에서 여러 GPU 관련 발표를 한 후, 슈퍼마이크로는 최선을 다해 최신 혁신 기술이 시장에 출시될 수 있도록 하드웨어 지원을 발표했습니다. 이 경우, Supermicro는 최대 4개의 NVIDIA HGX A100 GPU를 지원하도록 새로운 2U 서버를 확장했다고 발표했습니다. 이 회사는 또한 100U 서버를 보유하고 있으며 최대 XNUMX개의 AXNUMX GPU를 지원합니다.

슈퍼마이크로 NIDIA A100

NVIDIA HGX A100 GPU가 장착된 GPU 시스템용 Supermicro 서버는 1U, 2U, 4U 및 10U 랙마운트 GPU 시스템을 포함한 영역을 실행했습니다. 이러한 솔루션은 에지에서 클라우드까지 작동하며 AMD EPYC 또는 Intel Xeon 프로세서로 구동됩니다. 이 회사에 따르면 1U GPU 시스템에는 NEBS 레벨 3 인증, 5G/Edge-ready SYS-1029GQ를 포함하여 NVLink가 있는 최대 2개의 NVIDIA GPU가 포함되어 있습니다. SYS-2029GP-TR과 같은 슈퍼마이크로의 100U GPU 시스템은 하나의 시스템에서 듀얼 PCI-E 루트 컴플렉스 기능을 갖춘 최대 10개의 NVIDIA V9029 GPU를 지원할 수 있습니다. 마지막으로 SYS-16GP-TNVRT와 같은 100U GPU 서버는 AI 가속 기능이 내장된 듀얼 Intel Xeon Scalable 프로세서로 3개의 VXNUMX SXMXNUMX GPU 확장을 지원합니다.

새로운 서버의 경우, Supermicro는 100개의 NVIDIA A4 PCI-E GPU를 지원하는 새로운 8U 서버와 함께 NVIDIA HGX A4 100-GPU 4-GPU 베이스보드를 특징으로 하는 맞춤형 방열판 및 선택적 액체 냉각과 함께 고급 열 설계를 활용하고 있습니다. 새로운 서버는 회사의 AIOM(Advanced I/O Module) 폼 팩터를 활용하여 네트워크 통신의 유연성을 높입니다. AIOM은 NVIDIA Mellanox InfiniBand에서 NVIDIA GPUDirect RDMA 및 NVMe-oF(NVME over Fabrics)를 사용하는 GPUDirect 스토리지를 지원하는 PCIe gen XNUMX 스토리지 및 네트워킹 장치와 함께 작동합니다. 위의 모든 목표는 모든 GPU로 들어가는 병목 현상을 제거하는 것입니다.

먼저, 2U 시스템은 열 방열판 설계를 통해 최대 4개의 NVIDIA GPU를 수용할 수 있습니다. 이 시스템은 NVIDIA NVLink, 최대 8TB의 DDR4 3200Mhz 시스템 메모리, GPUDirect RDMA를 지원하는 4.0개의 PCI-E 2 I/O 슬롯, GPUDirect 스토리지 기능이 있는 XNUMX개의 핫스왑 가능한 NVMe를 통해 고성능 GPU PXNUMXP 통신을 가능하게 합니다. XNUMXU 시스템에서 인상적입니다.

더 큰 시스템에서 4U 서버에는 NVIDIA HGX A100 8-GPU 베이스보드, 최대 2개의 NVMe U.2 및 4.0개의 NVMe M.16, XNUMX개의 PCI-E XNUMX xXNUMX 슬롯이 있습니다. 이 시스템은 위에서 언급한 AIOM, NVIDIA NVLink 및 NVSwitch 기술을 활용합니다. 이 큰 사람의 사용 사례는 대규모 딥 러닝 교육, 연구 또는 국립 연구소를 위한 신경망 모델 애플리케이션, 슈퍼컴퓨팅 클러스터 및 HPC 클라우드 서비스입니다.

최대 GPU 밀도를 위해 Supermicro에는 8U SuperBlade 인클로저도 있습니다. 이 서버는 노드당 20개의 단일 너비 GPU 또는 노드당 40개의 NVIDIA Tensor Core A100 PCI-E GPU로 최대 20개의 노드와 100개의 GPU를 지원할 수 있습니다. 하나의 8U 설치 공간에 최대 8개의 NVIDIA A100을 장착하면 실제로 비용을 절감할 수 있습니다. 200U만 전원을 공급하거나 랙의 다른 장치를 위한 공간을 남겨두어야 합니다. 이 SuperBlade는 XNUMX% 비차단 HDR XNUMXGb/s InfiniBand 네트워킹 인프라를 제공하여 딥 러닝을 가속화하고 실시간 분석 및 의사 결정을 가능하게 합니다.

슈퍼 마이크로

StorageReview에 참여

뉴스레터 | 유튜브 | 팟캐스트 iTunes/스포티 파이 | 인스타그램 | 트위터 | 페이스북 | RSS 피드