홈페이지 Enterprise클라우드 Microsoft Azure, 맞춤형 서버 랙으로 NVIDIA Blackwell 기술 개척

Microsoft Azure, 맞춤형 서버 랙으로 NVIDIA Blackwell 기술 개척

by 프랭크 모리슨

Microsoft Azure는 NVIDIA의 GB200 AI 프로세서로 구동되는 서버를 성공적으로 배포하고 활성화하여 인공지능 인프라 분야에서 중요한 이정표를 세웠습니다.

Microsoft Azure는 NVIDIA의 GB200 AI 프로세서로 구동되는 서버를 배포하고 활성화하는 최초의 클라우드 서비스 제공업체가 되었습니다. X에 게시Azure는 맞춤형 NVIDIA GB200 AI 서버 랙을 전시하고 "Infiniband 네트워킹과 혁신적인 폐쇄형 액체 냉각을 활용하여 세계에서 가장 진보된 AI 모델에 전력을 공급하기 위해 모든 계층을 최적화하고 있습니다."라고 덧붙였습니다.

Microsoft의 구현은 각각 약 32개의 B200 프로세서를 수용하는 맞춤형 서버 랙을 특징으로 합니다. Azure는 이러한 고성능 장치에서 발생하는 엄청난 열을 관리하기 위해 고급 폐쇄 루프 액체 냉각 시스템을 개발했습니다. 이 설정은 AI 컴퓨팅의 경계를 넓히려는 Microsoft의 노력과 차세대 하드웨어를 위한 열 관리 전문성을 보여줍니다.

Blackwell B200 GPU는 AI 처리 능력에서 상당한 개선을 나타냅니다. 이전 모델인 H100과 비교했을 때 B200은 다음을 제공합니다.

  • FP2.5/INT8 작업의 경우 8배 더 높은 성능(4,500 TFLOPS/TOPS 대 1,980 TOPS)
  • FP9 데이터 형식을 사용하여 4 PFLOPS의 성능

이러한 발전을 통해 복잡한 대규모 언어 모델(LLM)의 훈련이 가능해지고 다양한 산업 전반에 걸쳐 AI 애플리케이션이 혁신될 가능성이 있습니다.

Microsoft CEO Satya Nadella X에 대한 또 다른 게시물에서 NVIDIA와의 지속적인 협력을 강조하며, "NVIDIA와의 오랜 파트너십과 심층적 혁신은 업계를 선도하고 가장 정교한 AI 워크로드를 구동하고 있습니다."라고 말했습니다.

현재 배포는 테스트 목적인 듯하지만, Microsoft가 곧 상업적 워크로드에 Blackwell 기반 서버를 제공할 준비가 되었다는 신호입니다. Blackwell 서버 제공에 대한 추가 세부 정보는 Microsoft의 다가올 회의 점화 18년 22월 2024~XNUMX일 시카고에서 개최 예정.

NVIDIA Blackwell 시스템을 운영화한 최초의 클라우드 공급업체로서 Microsoft Azure는 AI 인프라의 리더로 자리매김했습니다. 이러한 움직임은 더욱 진보된 AI 모델과 애플리케이션의 개발을 가속화하여 클라우드 기반 AI 서비스에 의존하는 다양한 분야를 잠재적으로 혁신할 것입니다.

이러한 고밀도, 고성능 컴퓨팅 시스템의 성공적인 구현은 또한 데이터 센터 설계 및 냉각 기술에 대한 새로운 표준을 설정합니다. 더 많은 공급업체가 유사한 기술을 채택함에 따라, 우리는 AI 워크로드의 증가하는 수요를 충족하기 위해 데이터 센터의 건설 및 운영에 변화를 목격할 수 있습니다.

Blackwell 서버 설치의 배포는 2024년 후반 또는 2025년 초에 증가할 것으로 예상되며, 이는 AI 환경에서 또 다른 진화의 무대를 마련합니다. Microsoft의 조기 채택은 가장 진보된 컴퓨팅 리소스를 활용하려는 AI 연구원과 기업을 유치하는 데 있어 경쟁 우위를 제공할 수 있습니다.

StorageReview에 참여

뉴스레터 | 유튜브 | 팟캐스트 iTunes/스포티 파이 | 인스타그램 | 트위터 | 틱톡 서비스 | RSS 피드