Jensen Huang, da NVIDIA, está na Computex 2023 em Taiwan esta semana, apresentando uma palestra repleta de anúncios de novos produtos com ênfase em permitir o desenvolvimento de modelos de última geração para aplicativos generativos de IA, análise de dados e sistemas de recomendação. O NVIDIA DGX O supercomputador equipado com superchips NVIDIA GH200 Grace Hopper e o sistema de comutação NVIDIA NVLink ocuparam o centro do palco.
Jensen Huang, da NVIDIA, está na Computex 2023 em Taiwan esta semana, apresentando uma palestra repleta de anúncios de novos produtos com ênfase em permitir o desenvolvimento de modelos de última geração para aplicativos generativos de IA, análise de dados e sistemas de recomendação. O NVIDIA DGX O supercomputador equipado com superchips NVIDIA GH200 Grace Hopper e o sistema de comutação NVIDIA NVLink ocuparam o centro do palco.
A NVIDIA DGX GH200 usa a tecnologia de interconexão NVLink com o NVLink Switch System para combinar 256 Superchips GH200 para funcionar como uma única GPU, fornecendo 1 exaflop de desempenho e 144 terabytes de memória compartilhada. Isso é quase 500 vezes mais memória do que um único sistema NVIDIA DGX A100!
A tecnologia NVLink expande a IA em escala
Os superchips GH200 combinam a CPU NVIDIA Grace baseada em Arm com a GPU NVIDIA H100 Tensor Core usando NVLink-C2C interconexões de chip, eliminando a necessidade de conexão PCIe CPU-para-GPU tradicional. A largura de banda entre GPU e CPU é aumentada em 7x em comparação com a mais recente tecnologia PCIe, reduzindo o consumo de energia de interconexão em mais de 5x e fornecendo um bloco de construção de GPU de arquitetura Hopper de 600 GB para supercomputadores DGX GH200.
Este é o primeiro supercomputador a emparelhar Grace Hopper Superchips com o NVLink Switch System. Essa nova interconexão permite que todas as GPUs em um sistema DGX GH200 funcionem como uma, em comparação com o limite de oito GPUs combinado com NVLink como uma única GPU sem afetar o desempenho. A arquitetura DGX GH200 oferece 10 vezes mais largura de banda do que a geração anterior, oferecendo o poder de um enorme supercomputador AI com a simplicidade de programar uma única GPU.
Pioneiros da IA obtêm novas ferramentas de pesquisa
Espera-se que os primeiros a acessar o novo supercomputador sejam Google Cloud, Meta e Microsoft, permitindo que explorem seus recursos para cargas de trabalho de IA generativas. A NVIDIA pretende fornecer o design DGX GH200 como um projeto para provedores de serviços em nuvem e outros hiperescaladores para que possam personalizá-lo para sua infraestrutura.
Os pesquisadores e as equipes de desenvolvimento da NVIDIA terão acesso ao novo supercomputador NVIDIA Helios com quatro sistemas DGX GH200. O Helios incluirá 1,024 Grace Hopper Superchips e deverá estar online até o final do ano. Cada sistema no supercomputador Helios será interconectado com a rede NVIDIA Quantum-2 InfiniBand com taxa de transferência de dados de largura de banda de até 400 Gb/s para treinamento de grandes modelos de IA.
Integrado e construído com propósito
Os supercomputadores DGX GH200 incluirão software NVIDIA, fornecendo uma solução completa e pronta para uso, suportando as maiores cargas de trabalho de IA e análise de dados. Comando base da NVIDIA O software fornece gerenciamento de fluxo de trabalho de IA, gerenciamento de cluster de nível empresarial, bibliotecas para acelerar computação, armazenamento e infraestrutura de rede e software de sistema otimizado para executar cargas de trabalho de IA. NVIDIA IA Empresarial o software será incluído, fornecendo mais de 100 estruturas, modelos retreinados e ferramentas de desenvolvimento para simplificar o desenvolvimento e a implantação da IA de produção, incluindo IA generativa, visão computacional, IA de fala e outros.
Disponibilidade
Espera-se que os supercomputadores NVIDIA DGX GH200 estejam disponíveis até o final do ano.
Envolva-se com a StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed