A NVIDIA integrará milhares de GPUs H200 Tensor Core na AI Bridging Cloud Infrastructure 3.0 (ABCI 3.0) do Japão. Os sistemas HPE Cray XD com rede NVIDIA Quantum-2 InfiniBand fornecerão o desempenho e a escalabilidade exigidos pela ABCI.
O Japão está prestes a fazer avanços significativos em pesquisa e desenvolvimento de IA, integrando milhares de GPUs NVIDIA H200 Tensor Core em sua AI Bridging Cloud Infrastructure 3.0 (ABCI 3.0). Liderada pelo Instituto Nacional de Ciência e Tecnologia Industrial Avançada (AIST), esta integração verá o HPE CrayXD sistema equipado com NVIDIA Quantum-2 InfiniBand rede, que promete desempenho e escalabilidade superiores.
ABCI 3.0: Avançando na pesquisa e desenvolvimento de IA
ABCI 3.0 representa a mais recente iteração da infraestrutura aberta de computação de IA em grande escala do Japão, projetada para impulsionar a P&D de IA. Este desenvolvimento destaca o esforço do Japão para melhorar as capacidades de IA e a independência tecnológica. Desde o lançamento do ABCI original em agosto de 2018, a AIST acumulou experiência significativa na gestão de infraestruturas de IA em grande escala. Com base nesta base, a atualização ABCI 3.0, em colaboração com a NVIDIA e a HPE, visa elevar as capacidades generativas de pesquisa e desenvolvimento de IA do Japão.
Ele codifica sua cultura, a inteligência da sua sociedade, seu bom senso, sua história – você possui seus próprios dados – Jensen Huang Presidente e CEO da NVIDIA
O supercomputador ABCI 3.0 estará localizado em Kashiwa.
Imagem cortesia do Instituto Nacional de Ciência e Tecnologia Industrial Avançada.
O projeto ABCI 3.0 é um esforço colaborativo envolvendo a AIST, sua subsidiária comercial AIST Solutions, e a Hewlett Packard Enterprise (HPE) como integradora de sistemas. Esta iniciativa é apoiada pelo Ministério da Economia, Comércio e Indústria do Japão (METI) através do Fundo de Segurança Económica. Faz parte da iniciativa mais ampla de US$ 1 bilhão do METI para reforçar os recursos de computação e investir na computação de IA em nuvem. O envolvimento da NVIDIA é significativo, com a empresa se comprometendo a apoiar pesquisas em IA generativa, robótica e computação quântica e a investir em startups de IA, ao mesmo tempo que fornece amplo suporte ao produto, treinamento e educação.
NVIDIA se compromete com o Japão
A colaboração da NVIDIA com o METI em pesquisa e educação em IA segue-se à visita do CEO Jensen Huang, que enfatizou o papel crítico das “fábricas de IA” – data centers de próxima geração projetados para tarefas intensivas de IA – na transformação de grandes quantidades de dados em inteligência acionável. O compromisso de Huang em apoiar as ambições de IA do Japão está alinhado com a sua visão de que as fábricas de IA se tornem a base das economias modernas em todo o mundo.
A fábrica de IA se tornará a base das economias modernas em todo o mundo – Jensen Huang Presidente e CEO da NVIDIA
O ABCI 3.0, com seu data center de densidade ultra-alta e design com eficiência energética, fornecerá uma infraestrutura robusta para o desenvolvimento de aplicações de IA e big data. O sistema, que deverá estar operacional até o final do ano e localizado em Kashiwa, perto de Tóquio, oferecerá recursos de pesquisa e desenvolvimento de IA de última geração.
Desempenho e eficiência incomparáveis
A instalação ABCI 3.0 fornecerá 6 exaflops de IA de capacidade computacional, uma medida de desempenho específico de IA sem dispersão, e 410 petaflops de precisão dupla para capacidade computacional geral. Cada nó será conectado por meio da plataforma Quantum-2 InfiniBand, oferecendo 200 GB/s de largura de banda bissecional. A tecnologia NVIDIA constitui o núcleo desta iniciativa, com centenas de nós equipados com 8 GPUs H200 conectadas por NVLink, garantindo desempenho e eficiência computacional incomparáveis.
A GPU NVIDIA H200 é um componente inovador, oferecendo mais de 140 gigabytes (GB) de memória HBM3e a 4.8 terabytes por segundo (TB/s). A NVIDIA afirma uma melhoria de 15x na eficiência energética em relação à plataforma da geração anterior da ABCI para cargas de trabalho de IA. Essa memória maior e mais rápida acelera significativamente a IA generativa e os modelos de linguagem grande (LLMs), avançando a computação científica para cargas de trabalho de computação de alto desempenho (HPC) com maior eficiência energética e menor custo total de propriedade.
Rede avançada Quantum-2 InfiniBand
A integração do NVIDIA Quantum-2 InfiniBand com recursos de computação em rede permite que os dispositivos de rede executem cálculos em dados, aliviando o trabalho da CPU. Isso garante comunicação eficiente, de alta velocidade e baixa latência, essencial para gerenciar cargas de trabalho intensivas de IA e grandes conjuntos de dados.
As capacidades de computação e processamento de dados de classe mundial da ABCI acelerarão os esforços conjuntos de P&D em IA entre indústrias, academia e governos. O investimento substancial do METI neste projeto destaca a visão estratégica do Japão para melhorar as capacidades de desenvolvimento de IA e acelerar o uso de IA generativa. Ao subsidiar o desenvolvimento de supercomputadores de IA, o Japão pretende reduzir o tempo e os custos associados ao desenvolvimento de tecnologias de IA de próxima geração, posicionando-se assim como líder no cenário global de IA.
Envolva-se com a StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed