Home Empreendimento NVIDIA A100 é anunciada na GTC 2020

NVIDIA A100 é anunciada na GTC 2020

by Michael Rink
Nvidia A100

Hoje, na reprogramada GTC (GPU Technology Conference organizada pela NVIDIA), a NVIDIA revelou que começou a enviar sua primeira GPU de 7 nm para fabricantes de eletrodomésticos. Assim como a AMD, que lançou uma GPU de 7 nm há dois anos em 2018, a NVIDIA está optando por se concentrar nos casos de uso de data center para sua primeira GPU de 7 nm. A NVIDIA tem enfatizado os desenvolvimentos em inteligência artificial e outras formas de computação de alto desempenho. a empresa mesmo comprou recentemente Mellanox. No início deste mês, a NVIDIA anunciou que estava procurando adquirir Cumulus tão bem.

Hoje, na reprogramada GTC (GPU Technology Conference organizada pela NVIDIA), a NVIDIA revelou que começou a enviar sua primeira GPU de 7 nm para fabricantes de eletrodomésticos. Assim como a AMD, que lançou uma GPU de 7 nm há dois anos em 2018, a NVIDIA está optando por se concentrar nos casos de uso de data center para sua primeira GPU de 7 nm. A NVIDIA tem enfatizado os desenvolvimentos em inteligência artificial e outras formas de computação de alto desempenho. a empresa mesmo comprou recentemente Mellanox. No início deste mês, a NVIDIA anunciou que estava procurando adquirir Cumulus tão bem.

Nvidia A100

A primeira GPU de 7nm da NVIDIA é a NVIDIA A100. O A100 é baseado na arquitetura Ampere da NVIDIA e contém 54 bilhões de transistores. Como as GPUs de data center NVIDIA anteriores, o A100 inclui Tensor Cores. Os núcleos do tensor são partes especializadas da GPU projetadas especificamente para executar rapidamente um tipo de multiplicação de matriz e cálculo de adição comumente usado em inferências. Com novas GPUs mais robustas, vêm novos núcleos de tensor mais robustos. Anteriormente, os Tensor Cores da NVIDIA suportavam apenas números de ponto flutuante de até trinta e dois bits. O A100 suporta operações de ponto flutuante de sessenta e quatro bits, permitindo uma precisão muito maior.

Outra novidade no A100 é um recurso de GPU de várias instâncias. Cada GPU A100 é capaz de se dividir em até sete instâncias independentes para lidar com um grande número de tarefas simultaneamente.

Especificações NVIDIA A100

Contagem de transistor

54 bilhões

Tamanho da matriz

826 mm2

Núcleos FP64 CUDA

3,456

Núcleos FP32 CUDA

6,912

Núcleos Tensores

432

Multiprocessadores de streaming

108

FP64

9.7 teraFLOPS

Núcleo Tensor FP64

19.5 teraFLOPS

FP32

19.5 teraFLOPS

Núcleo tensor TF32

156 teraFLOPS | 312 teraFLOPS*

Núcleo tensor BFLOAT16

312 teraFLOPS | 624 teraFLOPS*

Núcleo Tensor FP16

312 teraFLOPS | 624 teraFLOPS*

Núcleo tensor INT8

624 TOPS | 1,248 TOPS*

Núcleo tensor INT4

1,248 TOPS | 2,496 TOPS*

Memória GPU

40 GB

Largura de banda da memória da GPU

1.6 TB / s

Interconexão

NVLink 600 GB/s PCIe Gen4 64 GB/s

GPUs de várias instâncias

Vários tamanhos de instância com até 7 MIGs @ 5 GB

Fator de Forma

GPUs 4/8 SXM em HGX A100

Poder Maximo

400W (SXM)

Além da GPU A100 única, a NVIDIA também está lançando simultaneamente duas GPUs em cluster. O sistema NVIDIA DGX A100 possui oito GPUs NVIDIA A100 interconectadas com o NVIDIA NVSwitch. Seu irmão menor, a NVIDIA HGX A100 é composta por quatro GPUs A100 interconectadas através do NVLink. Tanto o NVLINK quanto o NVSwitch permitem que as GPUs individuais trabalhem juntas em grandes tarefas. O NVLink é uma verdadeira interconexão tudo-para-todos. Para lidar com o maior número de GPUs nas interconexões do NVSwitch, a NVIDIA optou pela conexão cruzada dos NVLinks entre as GPUs. A NVIDIA reforçou sua interconexão completa para o novo A100, dobrando a conectividade para suportar os núcleos muito mais poderosos dos chips. A NVIDIA afirma que mais que dobrou o desempenho de seu sistema DGX anterior. Segundo eles, seu novo DGX A100 de oito GPUs pode realizar incríveis cinco petaflops. Sua geração anterior, o DGX-2 dezesseis GPUs, mas gerencia apenas dois petaflops. Eu não esperava usar a palavra “apenas” com qualquer sistema que ostentasse dois petaflops tão cedo, mas quando o novo cluster mais do que dobra o desempenho com metade do número de GPUs, parece apropriado. O DGX A100 também possui 320 GB de memória e nove interfaces de rede NVIDIA Mellanox ConnectX-6 HDR 200 Gb por segundo, oferecendo um total de 3.6 Tb por segundo de largura de banda bidirecional.

Para colocar o poder absoluto do DGX A100 em perspectiva, o décimo supercomputador mais poderoso do mundo é comparado a 18 petaflops. Junte alguns dos novos bad boys da NVIDIA e você terá seu próprio supercomputador de classe mundial. Surpreendentemente, a NVIDIA lançou uma arquitetura de referência DGX SuperPOD que faz exatamente isso. Se o sistema funcionar tão bem quanto a NVIDIA afirma, os próximos meses podem ser muito estranhos para os entusiastas da supercomputação.

De volta ao mundo normal, com casos de uso mais típicos, a NVIDIA também anunciou planos para lançar um servidor de borda usando suas novas GPUs até o final do ano. A EGX A100 será alimentada por apenas uma das novas GPUs A100. A NVIDIA planeja que o servidor de borda EGX A100 seja executado no Red Hat Enterprise Linux. Os dispositivos provavelmente usarão as placas de rede Mellanox ConnectX-6 Dx adquiridas recentemente pela NVIDIA para receber até 200 Gbps de dados e enviá-los diretamente para a memória da GPU para processamento de sinal AI ou 5G. O fato de a própria NVIDIA não estar planejando lançar um dispositivo com apenas uma de suas novas GPUs até o final do ano realmente destaca a idéia maluca de agrupar vários DGX A100s, que são clusters de oito A100s juntos.

Site principal da NVIDIA

Discuta no Reddit

Envolva-se com a StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS feed