NVIDIA's Jensen Huang is deze week op Computex 2023 in Taiwan en geeft een keynote vol met nieuwe productaankondigingen met de nadruk op het mogelijk maken van de ontwikkeling van next-gen modellen voor generatieve AI-applicaties, data-analyse en aanbevelingssystemen. De NVIDIA DGX supercomputer aangedreven door NVIDIA GH200 Grace Hopper Superchips en het NVIDIA NVLink-schakelsysteem stonden centraal.
NVIDIA's Jensen Huang is deze week op Computex 2023 in Taiwan en geeft een keynote vol met nieuwe productaankondigingen met de nadruk op het mogelijk maken van de ontwikkeling van next-gen modellen voor generatieve AI-applicaties, data-analyse en aanbevelingssystemen. De NVIDIA DGX supercomputer aangedreven door NVIDIA GH200 Grace Hopper Superchips en het NVIDIA NVLink-schakelsysteem stonden centraal.
De NVIDIA DGX GH200 maakt gebruik van NVLink-verbindingstechnologie met het NVLink-schakelsysteem om 256 GH200-superchips te combineren om te presteren als een enkele GPU, wat 1 exaflop aan prestaties en 144 terabyte gedeeld geheugen levert. Dat is bijna 500x meer geheugen dan een enkel NVIDIA DGX A100-systeem!
NVLink-technologie breidt AI op schaal uit
De GH200 Superchips combineren de Arm-gebaseerde NVIDIA Grace CPU met de NVIDIA H100 Tensor Core GPU met behulp van NVLink-C2C chip-interconnects, waardoor een traditionele CPU-naar-GPU PCIe-verbinding niet meer nodig is. De bandbreedte tussen GPU en CPU is met 7x vergroot in vergelijking met de nieuwste PCIe-technologie, waardoor het stroomverbruik van de interconnect met meer dan 5x wordt verminderd en een 600 GB Hopper-architectuur GPU-bouwsteen voor DGX GH200-supercomputers wordt geboden.
Dit is de eerste supercomputer die Grace Hopper Superchips koppelt aan het NVLink Switch-systeem. Dankzij deze nieuwe onderlinge verbinding kunnen alle GPU's in een DGX GH200-systeem als één werken, vergeleken met de limiet van acht GPU's in combinatie met NVLink als een enkele GPU, zonder dat dit ten koste gaat van de prestaties. De DGX GH200-architectuur levert 10x meer bandbreedte dan de vorige generatie en levert de kracht van een enorme AI-supercomputer met de eenvoud van het programmeren van een enkele GPU.
AI-pioniers krijgen nieuwe onderzoekstools
De eersten die toegang krijgen tot de nieuwe supercomputer zijn naar verwachting Google Cloud, Meta en Microsoft, waardoor ze de mogelijkheden voor generatieve AI-workloads kunnen verkennen. NVIDIA is van plan het DGX GH200-ontwerp als blauwdruk te leveren aan cloudserviceproviders en andere hyperscalers, zodat ze het kunnen aanpassen aan hun infrastructuur.
NVIDIA-onderzoekers en ontwikkelingsteams krijgen toegang tot de nieuwe NVIDIA Helios-supercomputer met vier DGX GH200-systemen. Helios zal 1,024 Grace Hopper Superchips bevatten en zal naar verwachting tegen het einde van het jaar online zijn. Elk systeem in de Helios-supercomputer wordt onderling verbonden met NVIDIA Quantum-2 InfiniBand-netwerken met een datadoorvoer tot 400 Gb/s voor het trainen van grote AI-modellen.
Geïntegreerd en doelgericht gebouwd
De DGX GH200-supercomputers zullen NVIDIA-software bevatten die een kant-en-klare, full-stack-oplossing biedt, die de grootste AI- en data-analyseworkloads ondersteunt. NVIDIA-basiscommando software biedt AI-workflowbeheer, clusterbeheer op ondernemingsniveau, bibliotheken om de reken-, opslag- en netwerkinfrastructuur te versnellen, en systeemsoftware die is geoptimaliseerd voor het uitvoeren van AI-workloads. NVIDIA AI Enterprise software zal worden opgenomen die meer dan 100 frameworks, opnieuw getrainde modellen en ontwikkelingshulpmiddelen biedt om de ontwikkeling en inzet van productie-AI te stroomlijnen, waaronder generatieve AI, computervisie, spraak-AI en andere.
Beschikbaarheid
NVIDIA DGX GH200-supercomputers zullen naar verwachting tegen het einde van het jaar beschikbaar zijn.
Neem contact op met StorageReview
Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed