Home EmpreendimentoAI NVIDIA Grace Hopper Superchip domina benchmarks de inferência MLPerf

NVIDIA Grace Hopper Superchip domina benchmarks de inferência MLPerf

by Jordan Ranous

A NVIDIA causou grande impacto no mundo da inteligência artificial (IA) e da computação de alto desempenho com seu último lançamento – o Superchip NVIDIA GH200 Grace Hopper. Esta oferta recente mostrou excelente desempenho nos benchmarks MLPerf, demonstrando as proezas da NVIDIA em nuvem e IA de borda.

A NVIDIA causou grande impacto no mundo da inteligência artificial (IA) e da computação de alto desempenho com seu último lançamento – o Superchip NVIDIA GH200 Grace Hopper. Esta oferta recente mostrou excelente desempenho nos benchmarks MLPerf, demonstrando as proezas da NVIDIA em nuvem e IA de borda.

Superchip NVIDIA Grace Hopper

Um superchip que fala muito

O Superchip GH200 não é apenas um chip comum. Ele combina exclusivamente uma GPU Hopper com uma CPU Grace, fornecendo maior memória, largura de banda e a capacidade de ajustar automaticamente a potência entre a CPU e a GPU para desempenho máximo. Esta integração inovadora permite que o chip alcance um equilíbrio delicado entre potência e desempenho, garantindo que as aplicações de IA obtenham os recursos de que necessitam, quando precisam deles.

Resultados excepcionais do MLPerf

Os benchmarks MLPerf são um padrão respeitado da indústria e o GH200 da NVIDIA não decepcionou. O superchip não apenas executou todos os testes de inferência do data center, mas também demonstrou a versatilidade da plataforma de IA da NVIDIA, estendendo seu escopo das operações em nuvem até as bordas da rede.

Além disso, as GPUs H100 da NVIDIA também não ficaram para trás. Os sistemas HGX H100, equipados com oito GPUs H100, apresentaram rendimento superior em todos os testes de inferência MLPerf. Isso destaca o imenso potencial e capacidades das GPUs H100, especialmente para tarefas como visão computacional, reconhecimento de fala, imagens médicas, sistemas de recomendação e grandes modelos de linguagem (LLMs).

TensorRT-LLM: Ampliando o desempenho de inferência

A NVIDIA sempre esteve na vanguarda da inovação contínua, e a TensorRT-LLM é uma prova desse legado. Este software generativo de IA aumenta a inferência e vem como uma biblioteca de código aberto. Embora não tenha sido enviado ao MLPerf a tempo para a avaliação de agosto, ele é promissor, permitindo aos usuários ampliar o desempenho de suas GPUs H100 sem incorrer em custos adicionais. Parceiros como Meta, Cohere e Grammarly se beneficiaram dos esforços da NVIDIA para aprimorar a inferência de LLM, reafirmando a importância de tais desenvolvimentos de software no domínio da IA.

GPUs L4: unindo servidores convencionais e desempenho

Com os mais recentes benchmarks MLPerf, as GPUs L4 exibiram desempenho louvável em uma infinidade de cargas de trabalho. Essas GPUs, quando colocadas em aceleradores compactos, demonstraram métricas de desempenho até seis vezes mais eficientes do que CPUs com classificações de potência mais altas. A introdução de mecanismos de mídia dedicados, em colaboração com o software CUDA, dá vantagem à GPU L4, especialmente em tarefas de visão computacional.

Expandindo os limites: Edge Computing e muito mais

Os avanços não se limitam apenas à computação em nuvem. O foco da NVIDIA na computação de ponta fica evidente com o sistema em módulo Jetson Orin, que apresenta melhorias de desempenho de até 84% em comparação com suas versões anteriores na detecção de objetos.

MLPerf: um padrão de benchmarking transparente

O MLPerf continua a ser uma referência objetiva na qual usuários em todo o mundo confiam para tomar decisões de compra. A inclusão de gigantes de serviços em nuvem como Microsoft Azure e Oracle Cloud Infrastructure, juntamente com fabricantes de sistemas renomados como Dell, Lenovo e Supermicro, sublinha a importância do MLPerf na indústria.

Concluindo, o desempenho recente da NVIDIA nos benchmarks MLPerf reforça a sua posição de liderança no setor de IA. Com um amplo ecossistema, inovação contínua de software e o compromisso de oferecer desempenho de alta qualidade, a NVIDIA está de fato moldando o futuro da IA.

Para um mergulho técnico mais aprofundado nas realizações da NVIDIA, consulte o link blog técnico. Aqueles interessados ​​em replicar o sucesso do benchmarking da NVIDIA podem acessar o software no Repositório MLPerf e os votos de Centro de software NVIDIA NGC.

Envolva-se com a StorageReview 

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed