Casa Impresa Annunciate le CPU AMD EPYC e l'acceleratore AMD Instinct di prossima generazione per l'intelligenza artificiale generativa

Annunciate le CPU AMD EPYC e l'acceleratore AMD Instinct di prossima generazione per l'intelligenza artificiale generativa

by Harold Fritt

AMD ha utilizzato l'evento "Data Center and AI Technology Premiere" per annunciare nuovi prodotti e condividere il modo in cui l'azienda darà forma alla prossima fase di innovazione dei data center. L'annuncio include aggiornamenti alla famiglia di processori EPYC di quarta generazione, alla nuova famiglia di acceleratori AMD Instinct serie MI4 e un portafoglio di reti aggiornato.

AMD ha utilizzato l'evento "Data Center and AI Technology Premiere" per annunciare nuovi prodotti e condividere il modo in cui l'azienda darà forma alla prossima fase di innovazione dei data center. L'annuncio include aggiornamenti alla famiglia di processori EPYC di quarta generazione, alla nuova famiglia di acceleratori AMD Instinct serie MI4 e un portafoglio di reti aggiornato.

Processore EPYC di quarta generazione ottimizzato per i data center moderni

Gli aggiornamenti alla famiglia EPYC di quarta generazione presentati all’inizio del Data Center e dell’AI Technology Premiere di AMD includono la specializzazione del carico di lavoro che soddisfa specifiche esigenze aziendali. AMD ha presentato i suoi processori AMD EPYC 4X4 di quarta generazione, precedentemente nome in codice "Bergamo", che forniscono una maggiore densità di vCPU e prestazioni migliorate destinate alle applicazioni eseguite nel cloud.

Modello Colori Numero massimo di thread TDP predefinito Frequenza di base (GHz) Aumenta la frequenza (GHz) Cache L3 (MB)
9754 128 256 360W 2.25 3.10 256
9754S 128 128 360W 2.25 3.10 256
9734 112 224 320W 2.2 3.0 256

AMD sta facendo una spinta significativa nell'ecosistema AI con questo annuncio, che include i nuovi processori AMD EPYC 4X97 di quarta generazione. Questi processori sono progettati specificamente per soddisfare le esigenze specializzate dei carichi di lavoro moderni. Con un impressionante numero di core di 4 core (qualcun altro ha fame di torta?), forniscono una potenza di calcolo senza precedenti per le applicazioni di intelligenza artificiale.

Processore AMD Bergamo

L'aumento del numero di core, insieme a una migliore efficienza energetica e immobiliare, consente a questi processori di gestire complessi calcoli IA supportando fino a tre volte più contenitori per server. Questo progresso contribuisce alla crescente adozione di applicazioni AI native del cloud.

Modello Colori Numero massimo di thread TDP predefinito Frequenza di base (GHz) Aumenta la frequenza (GHz) Cache L3 (MB)
9684X 96 192 400W 2.55 3.70 1,152
9384X 32 64 320W 3.10 3.90 768
9184X 16 32 320W 3.55 4.20 768

Gli ultimi processori AMD EPYC Zen 4, dotati di 3D V-Cache, nome in codice Genoa-X, sono stati identificati come le principali CPU per server x86 per l'informatica tecnica in un recente SPEC.org rapporto. Questi processori all'avanguardia portano la 3D V-Cache nei chip Zen 96 a 4 core e offrono un'ampia cache L3 superiore a 1 GB, che facilita il rapido sviluppo del prodotto. Questi processori, sostiene AMD, possono accelerare significativamente lo sviluppo del prodotto, offrendo fino al doppio dei lavori di progettazione al giorno utilizzando meno server e meno energia.

Avanzare la piattaforma AI

AMD ha presentato il suo piano per migliorare la propria piattaforma AI offrendo ai clienti una gamma di prodotti hardware, dal cloud all'edge fino all'endpoint, e un'ampia collaborazione con il software del settore per creare soluzioni AI adattabili e diffuse.

AMD ha condiviso i dettagli dell'acceleratore AMD Instinct serie MI300 famiglia, incluso l'acceleratore AMD Instinct MI300X, un acceleratore avanzato per l'intelligenza artificiale generativa.

L'introduzione dell'acceleratore AMD Instinct MI300X è intrigante. Questa unità di elaborazione accelerata (APU) all'avanguardia fa parte dell'architettura di accelerazione CDNA 3 di nuova generazione di AMD e offre fino a 192 GB di memoria HBM3. Questo ampio pool di memoria è progettato per affrontare carichi di lavoro IA impegnativi, in particolare quelli che coinvolgono l'inferenza LLM (Large Language Model) e l'intelligenza artificiale generativa. L'ampia capacità dell'MI300X può ospitare anche i modelli linguistici più grandi, come Falcon-40B, su un singolo acceleratore GPU. Ciò rappresenta un passo avanti potenzialmente trasformativo per l’elaborazione e l’efficienza dell’intelligenza artificiale.

L’introduzione di AMD MI300X sul mercato potrebbe potenzialmente sconvolgere la supremazia esistente di NVIDIA poiché è stata creata per sfidare il leader di mercato in carica, NVIDIA H100. NVIDIA detiene la quota di maggioranza in questo segmento di mercato redditizio e in rapida espansione, vantando una quota di mercato compresa tra il 60% e il 70% circa nei server AI. L’introduzione di un acceleratore così potente in questo momento sarà positiva per l’ecosistema nel suo insieme, che è principalmente legato al CUDA di NVIDIA. Un ulteriore 20% è fornito da chip integrati specifici per l’applicazione (ASIC) realizzati da fornitori di server cloud, tra cui i chip Inferentia e Trainium di Amazon e le unità di elaborazione tensore (TPU) di Alphabet.

Piattaforma con architettura AMD Infinity

AMD ha inoltre introdotto la piattaforma AMD Infinity Architecture, che riunisce otto acceleratori MI300X in un design standard del settore per migliorare l'inferenza e il training dell'intelligenza artificiale generativa.

L'MI300X sta campionando ai clienti chiave a partire dal terzo trimestre. Il primo acceleratore APU per carichi di lavoro HPC e AI, AMD Instinct MI3A, è ora in fase di campionamento per i clienti.

Sottolineando la collaborazione con i leader del settore per riunire un ecosistema AI aperto, AMD ha presentato l'ecosistema software AMD ROCm per gli acceleratori di data center.   

Un portafoglio di rete per il cloud e l'impresa 

AMD ha anche presentato il suo portafoglio di reti, che include la DPU AMD Pensando, AMD NIC a latenza ultra bassa e NIC adattiva AMD. Le DPU AMD Pensando combinano a stack software con "sicurezza zero trust" e un processore di pacchetti programmabile creare una DPU intelligente e performante.

AMD ha evidenziato la prossima generazione della sua DPU, nome in codice "Giglio", che mira a portare prestazioni ed efficienza energetica migliorate rispetto ai prodotti della generazione attuale e dovrebbero essere disponibili entro la fine del 2023. 

L'annuncio finale si è concentrato sul kit di sviluppo software in silicio (SSDK) AMD Pensando ai clienti la possibilità di sviluppare o migrare rapidamente servizi da implementare su AMD Pensando P4 DPU programmabile in coordinamento con il set esistente di funzionalità attualmente implementate su la piattaforma AMD Pensando. AMD Pensando SSDK consente ai clienti di sfruttare tutta la potenza di la DPU AMD Pensando per lavorare e personalizzare la virtualizzazione e la sicurezza della rete funzionalità all'interno della loro infrastruttura. 

Processori AMD EPYC di quarta generazione 

Acceleratori dell'istinto AMD 

Soluzioni di rete AMD 

Interagisci con StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed