Home Empreendimento CPUs AMD EPYC e AMD Instinct Accelerator de última geração para IA generativa são anunciados

CPUs AMD EPYC e AMD Instinct Accelerator de última geração para IA generativa são anunciados

by Haroldo Fritts

A AMD usou seu evento “Data Center and AI Technology Premiere” para anunciar novos produtos e compartilhar como a empresa moldará a próxima fase da inovação do data center. O anúncio inclui atualizações para a família de processadores EPYC de 4ª geração, a nova família de aceleradores AMD Instinct MI300 Series e um portfólio de rede atualizado.

A AMD usou seu evento “Data Center and AI Technology Premiere” para anunciar novos produtos e compartilhar como a empresa moldará a próxima fase da inovação do data center. O anúncio inclui atualizações para a família de processadores EPYC de 4ª geração, a nova família de aceleradores AMD Instinct MI300 Series e um portfólio de rede atualizado.

Processador EPYC de 4ª geração otimizado para o data center moderno

As atualizações para a família EPYC de 4ª geração reveladas no início do Data Center e AI Technology Premiere da AMD incluem especialização de carga de trabalho que atende a demandas específicas de negócios. A AMD apresentou seus processadores AMD EPYC 4X97 de 4ª geração, anteriormente com o codinome “Bergamo”, fornecendo maior densidade de vCPU e maior desempenho direcionado a aplicativos executados na nuvem.

Modelo Núcleos Tópicos Máximos TDP padrão Freq. base (GHz) Aumente a Freq. (GHz) Cache L3 (MB)
9754 128 256 360W 2.25 3.10 256
9754S 128 128 360W 2.25 3.10 256
9734 112 224 320W 2.2 3.0 256

A AMD está dando um impulso significativo no ecossistema de IA com este anúncio, que inclui os novos processadores AMD EPYC 4X97 de 4ª geração. Esses processadores são projetados especificamente para atender às demandas especializadas das cargas de trabalho modernas. Com uma impressionante contagem de núcleos de 128 núcleos (mais alguém com fome de Pie?), eles fornecem poder computacional inigualável para aplicativos de IA.

CPU AMD Bergamo

A maior contagem de núcleos, juntamente com a eficiência energética e imobiliária aprimorada, permite que esses processadores lidem com cálculos complexos de IA, suportando até três vezes mais contêineres por servidor. Esse avanço contribui para a crescente adoção de aplicativos de IA nativos da nuvem.

Modelo Núcleos Tópicos Máximos TDP padrão Freq. base (GHz) Aumente a Freq. (GHz) Cache L3 (MB)
9684X 96 192 400W 2.55 3.70 1,152
9384X 32 64 320W 3.10 3.90 768
9184X 16 32 320W 3.55 4.20 768

Os mais recentes processadores AMD EPYC Zen 4, equipados com 3D V-Cache, codinome Genoa-X, foram identificados como a principal CPU de servidor x86 para computação técnica em um recente SPEC.org relatório. Esses processadores de ponta trazem o V-Cache 3D para os chips Zen 96 de 4 núcleos e oferecem um cache L3 expansivo superior a 1 GB, o que facilita o rápido desenvolvimento do produto. Esses processadores, afirma a AMD, podem acelerar significativamente o desenvolvimento de produtos, entregando até o dobro dos trabalhos de design por dia, usando menos servidores e menos energia.

Avançando a AI Platform

A AMD apresentou seu plano para aprimorar sua AI Platform, oferecendo aos clientes uma variedade de produtos de hardware, da nuvem à ponta e ao endpoint, e ampla colaboração com software do setor para criar soluções de IA adaptáveis ​​e generalizadas.

AMD compartilhou detalhes do acelerador AMD Instinct MI300 Series família, incluindo o acelerador AMD Instinct MI300X, um acelerador avançado para IA generativa.

A introdução do acelerador AMD Instinct MI300X é intrigante. Esta unidade de processamento acelerado de ponta (APU) faz parte da arquitetura do acelerador CDNA 3 da próxima geração da AMD e possui até 192 GB de memória HBM3. Esse amplo pool de memória foi projetado para lidar com cargas de trabalho de IA exigentes, especialmente aquelas que envolvem inferência de modelo de linguagem grande (LLM) e IA generativa. A vasta capacidade do MI300X pode acomodar até mesmo os maiores modelos de linguagem, como o Falcon-40B, em um único acelerador de GPU. Isso representa um passo potencialmente transformador para o processamento e a eficiência da IA.

Apresentar o AMD MI300X ao mercado pode potencialmente abalar a supremacia existente da NVIDIA, já que ele foi criado para desafiar o atual líder de mercado, o NVIDIA H100. A NVIDIA detém a participação majoritária neste segmento de mercado lucrativo e em rápida expansão, com uma participação de mercado de cerca de 60% a 70% em servidores de IA. Apresentar um acelerador tão capaz neste momento será bom para o ecossistema como um todo, que está vinculado principalmente ao CUDA da NVIDIA. Outros 20% são fornecidos por chips integrados específicos de aplicativos (ASICs) feitos sob medida por provedores de servidores em nuvem, incluindo os chips Inferentia e Trainium da Amazon e as unidades de processamento tensor (TPUs) da Alphabet.

Plataforma de arquitetura AMD Infinity

A AMD também apresentou a AMD Infinity Architecture Platform, reunindo oito aceleradores MI300X em um design padrão do setor para treinamento e inferência de IA generativa aprimorada.

O MI300X está amostrando para os principais clientes a partir do terceiro trimestre. O primeiro APU Accelerator para cargas de trabalho de HPC e AI, o AMD Instinct MI3A, está sendo testado para os clientes agora.

Destacando a colaboração com líderes do setor para reunir um ecossistema aberto de IA, a AMD apresentou o ecossistema de software AMD ROCm para aceleradores de data center.   

Um portfólio de rede para nuvem e empresarial 

A AMD também apresentou seu portfólio de rede, que inclui AMD Pensando DPU, AMD NICs de latência ultrabaixa e NIC adaptável AMD. As DPUs AMD Pensando combinam um pilha de software com “segurança de confiança zero” e um processador de pacote programável para criar um DPU inteligente e de alto desempenho.

A AMD destacou a próxima geração de seu DPU, codinome “Giglio”, que visa trazer desempenho aprimorado e eficiência de energia em comparação com os produtos da geração atual e deve estar disponível até o final de 2023. 

O anúncio final focou no AMD Pensando Software-in-Silicon Developer Kit (SSDK), dando aos clientes a capacidade de desenvolver ou migrar rapidamente serviços para implantação no AMD Pensando P4 DPU programável em coordenação com o conjunto existente de recursos atualmente implementados em a plataforma AMD Pensando. O AMD Pensando SSDK permite que os clientes coloquem o poder de o AMD Pensando DPU para trabalhar e personalizar a virtualização e segurança da rede recursos dentro de sua infraestrutura. 

Processadores AMD EPYC de 4ª geração 

Aceleradores AMD Instinct 

Soluções de rede AMD 

Envolva-se com a StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed