Il debutto della GPU NVIDIA H100 Tensor Core sui benchmark AI standard del settore MLPerf ha stabilito record mondiali nell'inferenza su tutti i carichi di lavoro offrendo prestazioni fino a 4.5 volte superiori rispetto alle GPU della generazione precedente. Le GPU NVIDIA A100 Tensor Core e il modulo NVIDIA Jetson AGX Orin per la robotica basata sull'intelligenza artificiale hanno fornito prestazioni di inferenza di leadership complessive in tutti i test MLPerf: riconoscimento di immagini e parlato, elaborazione del linguaggio naturale e sistemi di raccomandazione.
Il debutto della GPU NVIDIA H100 Tensor Core sui benchmark AI standard del settore MLPerf ha stabilito record mondiali nell'inferenza su tutti i carichi di lavoro offrendo prestazioni fino a 4.5 volte superiori rispetto alle GPU della generazione precedente. Le GPU NVIDIA A100 Tensor Core e il modulo NVIDIA Jetson AGX Orin per la robotica basata sull'intelligenza artificiale hanno fornito prestazioni di inferenza di leadership complessive in tutti i test MLPerf: riconoscimento di immagini e parlato, elaborazione del linguaggio naturale e sistemi di raccomandazione.
L'H100, alias Hopper, ha alzato il livello delle prestazioni per acceleratore su tutte e sei le reti neurali dimostrando leadership in termini di throughput e velocità in test server e offline separati. Grazie in parte al suo Transformer Engine, Hopper eccelleva sul modello BERT per l'elaborazione del linguaggio naturale. È tra i modelli AI MLPerf più grandi e più assetati di prestazioni.
Questi benchmark di inferenza segnano la prima dimostrazione pubblica delle GPU H100, disponibile entro la fine dell'anno. Le GPU H100 parteciperanno ai futuri round MLPerf per la formazione.
Le GPU A100 mostrano la leadership
Le GPU NVIDIA A100, oggi disponibili presso i principali fornitori di servizi cloud e produttori di sistemi, hanno continuato a mostrare la leadership complessiva nelle prestazioni tradizionali sull'inferenza dell'intelligenza artificiale, vincendo più test di qualsiasi altro candidato nelle categorie e negli scenari di data center ed edge computing. A giugno, l’A100 ha inoltre ottenuto la leadership complessiva nei benchmark di formazione MLPerf, dimostrando le sue capacità in tutto il flusso di lavoro dell’intelligenza artificiale.
Dal loro debutto su MLPerf nel luglio 2020, le GPU A100 hanno migliorato le loro prestazioni di 6 volte, grazie ai continui miglioramenti del software NVIDIA AI. NVIDIA AI è l'unica piattaforma in grado di eseguire tutti i carichi di lavoro e gli scenari di inferenza MLPerf nei data center e nell'edge computing.
Gli utenti hanno bisogno di prestazioni versatili
La leadership nelle prestazioni delle GPU NVIDIA in tutti i principali modelli di intelligenza artificiale convalida la tecnologia per gli utenti, poiché le applicazioni del mondo reale utilizzano in genere molte reti neurali di diverso tipo. Ad esempio, un’applicazione AI potrebbe dover comprendere la richiesta vocale di un utente, classificare un’immagine, formulare una raccomandazione e quindi fornire una risposta come messaggio vocale con una voce dal suono umano. Ogni passaggio richiede un diverso tipo di modello di intelligenza artificiale.
I benchmark MLPerf coprono questi e altri carichi di lavoro e scenari di intelligenza artificiale popolari, tra cui visione artificiale, elaborazione del linguaggio naturale, sistemi di raccomandazione e riconoscimento vocale. I risultati di MLPerf aiutano gli utenti a prendere decisioni di acquisto informate sulla base di test specifici garantendo gli utenti di ottenere un prodotto che offra prestazioni affidabili e flessibili.
I benchmark MLPerf sono supportati da un ampio gruppo che comprende Amazon, Arm, Baidu, Google, Harvard, Intel, Meta, Microsoft, Stanford e l'Università di Toronto.
Orin guida al limite
Nell'edge computing, NVIDIA Orin ha eseguito tutti i benchmark MLPerf, vincendo più test di qualsiasi altro sistema su chip a basso consumo e offrendo un aumento dell'efficienza energetica fino al 50% rispetto al debutto di aprile su MLPerf. Nella versione precedente, Orin ha funzionato fino a 5 volte più velocemente rispetto al modulo Jetson AGX Xavier della generazione precedente, offrendo allo stesso tempo un'efficienza energetica mediamente 2 volte migliore.
Orin integra in un singolo chip una GPU con architettura NVIDIA Ampere e un cluster di potenti core CPU Arm. È oggi disponibile nel kit di sviluppo NVIDIA Jetson AGX Orin e nei moduli di produzione per robotica e sistemi autonomi. Supporta l'intero stack software NVIDIA AI, comprese le piattaforme per veicoli autonomi (NVIDIA Hyperion), dispositivi medici (Clara Holoscan) e robotica (Isaac).
Ampio ecosistema AI NVIDIA
I risultati di MLPerf mostrano che l’ecosistema più ampio del settore supporta l’intelligenza artificiale NVIDIA nel machine learning. Oltre 70 proposte in questa tornata sono state eseguite sulla piattaforma NVIDIA e Microsoft Azure ha inviato risultati con l'esecuzione di NVIDIA AI sui suoi servizi cloud.
Inoltre, in questo round sono apparsi 19 sistemi certificati NVIDIA da 10 produttori di sistemi, tra cui ASUS, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Lenovo e Supermicro. Il loro lavoro dimostra prestazioni eccellenti con l'intelligenza artificiale NVIDIA nel cloud e in locale.
MLPerf è uno strumento prezioso per i clienti che valutano piattaforme e fornitori di intelligenza artificiale. I risultati dell'ultima tornata dimostrano che le prestazioni offerte da questi partner cresceranno con la piattaforma NVIDIA. Tutto il software utilizzato per questi test è disponibile nel repository MLPerf in modo che chiunque possa ottenere questi risultati. Le ottimizzazioni vengono continuamente inserite nei contenitori disponibili su NGC, il catalogo NVIDIA per il software accelerato da GPU. NVIDIA TensorRT, utilizzato da ogni invio in questo round per ottimizzare l'inferenza dell'intelligenza artificiale, si trova nel catalogo.
Recentemente abbiamo eseguito i nostri risultati MLperf edge Supermicro che a Lenovo piattaforme con le GPU T4 e A2 all'interno.
Interagisci con StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS feed