Home EnterpriseAI NVIDIA Grace Hopper Superchip domineert MLPerf Inference Benchmarks

NVIDIA Grace Hopper Superchip domineert MLPerf Inference Benchmarks

by Jordaan Ranous

NVIDIA heeft behoorlijk wat indruk gemaakt in de wereld van kunstmatige intelligentie (AI) en high-performance computing met zijn nieuwste onthulling: de NVIDIA GH200 Grace Hopper Superchip. Dit recente aanbod heeft uitstekende prestaties laten zien in de MLPerf-benchmarks, wat de bekwaamheid van NVIDIA op het gebied van cloud en edge AI aantoont.

NVIDIA heeft behoorlijk wat indruk gemaakt in de wereld van kunstmatige intelligentie (AI) en high-performance computing met zijn nieuwste onthulling: de NVIDIA GH200 Grace Hopper Superchip. Dit recente aanbod heeft uitstekende prestaties laten zien in de MLPerf-benchmarks, wat de bekwaamheid van NVIDIA op het gebied van cloud en edge AI aantoont.

NVIDIA Grace Hopper Super-chip

Een superchip die boekdelen spreekt

De GH200 Superchip is niet zomaar een chip. Het combineert op unieke wijze een Hopper GPU met een Grace CPU en biedt meer geheugen, bandbreedte en de mogelijkheid om het vermogen tussen de CPU en GPU automatisch aan te passen voor topprestaties. Dankzij deze innovatieve integratie kan de chip een delicaat evenwicht bereiken tussen kracht en prestaties, waardoor AI-toepassingen de middelen krijgen die ze nodig hebben wanneer ze die nodig hebben.

Uitzonderlijke MLPerf-resultaten

MLPerf-benchmarks zijn een gerespecteerde industriestandaard en de GH200 van NVIDIA stelde niet teleur. De superchip voerde niet alleen alle inferentietests van het datacenter uit, maar demonstreerde ook de veelzijdigheid van NVIDIA's AI-platform, waardoor de reikwijdte werd uitgebreid van cloudactiviteiten tot de randen van het netwerk.

Bovendien bleven de H100 GPU's van NVIDIA ook niet achter. De HGX H100-systemen, uitgerust met acht H100 GPU's, lieten een superieure doorvoer zien in alle MLPerf Inference-tests. Dit benadrukt het enorme potentieel en de mogelijkheden van de H100 GPU's, vooral voor taken zoals computervisie, spraakherkenning, medische beeldvorming, aanbevelingssystemen en grote taalmodellen (LLM's).

TensorRT-LLM: versterking van de inferentieprestaties

NVIDIA heeft altijd voorop gelopen op het gebied van voortdurende innovatie, en de TensorRT-LLM is een bewijs van deze erfenis. Deze generatieve AI-software vergroot de gevolgtrekking en wordt geleverd als een open-sourcebibliotheek. Hoewel het niet op tijd bij MLPerf is ingediend voor de evaluatie in augustus, is het veelbelovend, waardoor gebruikers de prestaties van hun H100 GPU's kunnen verbeteren zonder extra kosten te hoeven maken. Partners als Meta, Cohere en Grammarly hebben geprofiteerd van de inspanningen van NVIDIA om de LLM-gevolgtrekking te verbeteren, waarmee het belang van dergelijke softwareontwikkelingen op het gebied van AI opnieuw wordt bevestigd.

L4 GPU's: een brug tussen reguliere servers en prestaties

Met de nieuwste MLPerf-benchmarkshebben de L4 GPU's lovenswaardige prestaties getoond bij een groot aantal werklasten. Deze GPU's hebben, wanneer ze in compacte versnellers worden geplaatst, prestatiestatistieken laten zien die tot zes keer efficiënter zijn dan CPU's met hogere vermogens. De introductie van speciale media-engines, in samenwerking met CUDA-software, geeft de L4 GPU een voorsprong, vooral bij computervisietaken.

De grenzen verleggen: Edge Computing en meer

De vooruitgang beperkt zich niet alleen tot cloud computing. NVIDIA's focus op edge computing komt duidelijk naar voren met de Jetson Orin system-on-module, die prestatieverbeteringen tot 84% laat zien in vergelijking met de vorige versies op het gebied van objectdetectie.

MLPerf: een transparante benchmarkingstandaard

MLPerf blijft een objectieve maatstaf waarop gebruikers over de hele wereld vertrouwen bij het nemen van aankoopbeslissingen. De deelname van cloudservicegiganten als Microsoft Azure en Oracle Cloud Infrastructure, samen met gerenommeerde systeemfabrikanten als Dell, Lenovo en Supermicro, onderstreept het belang van MLPerf in de branche.

Concluderend versterken de recente prestaties van NVIDIA in de MLPerf-benchmarks haar leiderschapspositie in de AI-sector. Met een breed ecosysteem, voortdurende software-innovatie en een toewijding aan het leveren van hoogwaardige prestaties geeft NVIDIA inderdaad vorm aan de toekomst van AI.

Voor een meer diepgaande technische duik in de prestaties van NVIDIA, raadpleeg de gelinkte technische blog. Degenen die het benchmarksucces van NVIDIA willen repliceren, kunnen toegang krijgen tot de software via de MLPerf-opslagplaats en NVIDIA NGC-softwarehub.

Neem contact op met StorageReview 

Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed