NVIDIA GTC 2025 onthulde baanbrekende AI-verbeteringen, waaronder Blackwell Ultra GPU's, AI-Q, Mission Control en DGX Spark.
De GTC-conferentie van NVIDIA belichtte talrijke innovaties die de AI-ontwikkeling in meerdere sectoren zullen transformeren en toonde doorbraken in AI-hardware, software en partnerschappen. Het juweeltje van GTC 2025 was ongetwijfeld de onthulling van de datacenter-GPU's en hun roadmap. De krachtigste AI-accelerator van NVIDIA in productie tot nu toe is de B300, gebouwd op de Blackwell Ultra-architectuur. Het biedt een 1.5x hogere prestatie dan de al toonaangevende prestaties van de Blackwell-GPU's.
Vergeleken met de uitgebrachte GPU's van NVIDIA zijn de prestatieverbeteringen verbluffend:
Specificaties | H100 | H200 | B100 | B200 | B300 |
---|---|---|---|---|---|
Max geheugen | 80 GB HBM3 | 141 GB HBM3e | 192 GB HBM3e | 192 GB HBM3e | 288 GB HBM3e |
Geheugenbandbreedte | 3.35 TB / s | 4.8 TB/s | 8 TB/s | 8 TB/s | 8 TB/s |
FP4 Tensorkern | - | - | 14 PFLOPS | 18 PFLOPS | 30 PFLOPS |
FP6 Tensorkern | - | - | 7 PFLOPS | 9 PFLOPS | 15 PFLOPS* |
FP8 Tensorkern | 3958 TFLOPS (~4 PFLOPS) | 3958 TFLOPS (~4 PFLOPS) | 7 PFLOPS | 9 PFLOPS | 15 PFLOPS* |
INT 8 Tensorkern | 3958 TOPS | 3958 TOPS | 7 POPPEN | 9 POPPEN | 15 PFLOPS* |
FP16/BF16 Tensorkern | 1979 TFLOPS (~2 PFLOPS) | 1979 TFLOPS (~2 PFLOPS) | 3.5 PFLOPS | 4.5 PFLOPS | 7.5 PFLOPS* |
TF32 Tensorkern | 989 TFLOPS | 989 TFLOPS | 1.8 PFLOPS | 2.2 PFLOPS | 3.3 PFLOPS* |
FP32 (Dicht) | 67 TFLOPS | 67 TFLOPS | 30 TFLOPS | 40 TFLOPS | Informatie onbekend |
FP64 Tensor Kern (Dicht) | 67 TFLOPS | 67 TFLOPS | 30 TFLOPS | 40 TFLOPS | Informatie onbekend |
FP64 (Dicht) | 34 TFLOPS | 34 TFLOPS | 30 TFLOPS | 40 TFLOPS | Informatie onbekend |
Max Stroomverbruik | 700W | 700W | 700W | 1000W | Informatie onbekend |
Let op: Waarden gemarkeerd met “*” zijn ruwe berekeningen en geen officiële cijfers van NVIDIA
De Blackwell Ultra B300 introduceert, net als zijn Blackwell-tegenhangers, nieuwe precisieformaten met FP4 Tensor Cores die een indrukwekkende 30 PFLOPS leveren en FP6/FP8 die 15 PFLOPS* aan prestaties bieden, vergeleken met de huidige H200's. Dit is een verbetering van ongeveer 7.5x bij vergelijking van FP8-compute met FP4 en een verbetering van bijna 4x bij vergelijking van FP8-prestaties.
De volgende op NVIDIA's roadmap is de Vera Rubin GPU, die volgend jaar uitkomt. Vera Rubin zal naar verwachting 3.3x de prestaties van Blackwell Ultra leveren, met 50 PFLOPS aan dichte FP4-computing, vergeleken met de 300 PFLOPS van de B15. Het zal worden vergezeld door ConnectX-9 en NVLink-6 technologieën, waarmee de bandbreedte van eerdere generaties wordt verdubbeld. Vera Rubin GPU's zullen ook HBM4-geheugen bevatten, wat een 1.6x hogere geheugenbandbreedte oplevert. De overgang van Grace naar Vera CPU's zal ook de CPU-naar-GPU-interconnectie aanzienlijk verbeteren, met snelheden tot 1.8 TB/s.
NVIDIA hield zich niet in en kondigde zijn Rubin Ultra GPU's aan, die naar verwachting in de tweede helft van 2027 worden gelanceerd. Rubin Ultra GPU's moeten de prestaties van Vera Rubin verdubbelen en leveren een verbluffende 100 PFLOPS aan dichte FP4-computing per GPU. Rubin Ultra zal ook worden uitgerust met 1 TB aan geavanceerd HBM4e-geheugen.
NVIDIA DGX-Spark
NVIDIA presenteerde zijn DGX Spark, een systeem dat werd geïntroduceerd onder de Projectcijfers moniker, op CES eerder dit jaar. Gericht op AI-ontwikkelaars, onderzoekers, datawetenschappers en studenten, maakt DGX Spark gebruik van de nieuwe GB10 Blackwell-chip en is geconfigureerd met 128 GB aan unified memory.
NVIDIA beweert dat het systeem een buitengewone 1,000 AI TOPS levert, wat de prestaties van de Spark op een praktisch niveau zou brengen dat gelijk is aan de RTX 5070. Het Spark-platform integreert ook een ConnectX 7 SmartNIC, die de Spark uitrust met 2x 200Gb-koppelingen om gegevensverplaatsing te stroomlijnen. OEM-partners, waaronder ASUS, Dell, HPE en Lenovo, zullen binnenkort merkversies aanbieden. Reserveringen zijn al geopend en de verzendingen staan gepland om in juli te beginnen.
NVIDIA DGX-station
NVIDIA introduceerde ook de vernieuwde DGX Station, die wordt gepositioneerd als de ultieme desktop AI-supercomputer voor zakelijke toepassingen en is gebouwd met de GB300 Grace Blackwell Ultra-chip.
De DGX Station biedt 784 GB aan unified system memory en levert 20 petaflops aan dichte FP4 AI-prestaties. Dit integreert NVIDIA's ConnectX 8 SuperNIC rechtstreeks in het systeem, wat zorgt voor 800 Gb/s netwerkconnectiviteit, wat ervoor zorgt dat high-performance networking voldoet aan de eisen van zijn substantiële rekencapaciteiten. OEM-partners zoals ASUS, Box, Dell, HPE, Lambda en Supermicro zijn gepland om DGX Station-systemen te bouwen, met verwachte beschikbaarheid later dit jaar.
NVIDIA RTX Pro-zwartwell
De GPU-gravy train stopte daar niet. NVIDIA onthulde zijn RTX Pro Blackwell-serie, een uitgebreide vernieuwing van zijn professionele GPU-assortiment dat is ontworpen om AI-, grafische en simulatiewerklasten op alle platforms te versnellen. Deze nieuwe generatie omvat desktopwerkstations, mobiele systemen en servers, met het vlaggenschip RTX Pro 6000 Blackwell met een toonaangevend 96 GB GPU-geheugen en tot 4,000 TOPS aan AI-prestaties. Deze ontwikkelingen maken realtime raytracing, snelle AI-inferentie en geavanceerde grafische workflows mogelijk die voorheen niet haalbaar waren op desktopsystemen.
De technologische innovaties die in deze GPU's zijn verpakt, zijn substantieel, waaronder NVIDIA's Streaming Multiprocessor met 1.5x snellere doorvoer, vierde generatie RT Cores die twee keer zoveel prestaties leveren als eerdere generaties, en vijfde generatie Tensor Cores die nieuwe FP4-precisie voor AI-workloads ondersteunen. Extra verbeteringen omvatten PCIe Gen 5-ondersteuning voor verdubbelde bandbreedte, DisplayPort 2.1-compatibiliteit voor extreme resolutie-schermconfiguraties en, in de Server Edition, NVIDIA Confidential Computing voor veilige AI-workloads.
Professionals uit de industrie hebben opmerkelijke prestatieverbeteringen gemeld in real-world-toepassingen. Foster + Partners bereikte 5x snellere ray-tracing dan de RTX A6000, terwijl GE HealthCare tot 2x verbetering vond in GPU-verwerkingstijd voor medische reconstructie-algoritmen. Autofabrikant Rivian maakte gebruik van de nieuwe GPU's voor ongekende VR-visuele kwaliteit in ontwerpbeoordelingen, en SoftServe meldde een 3x hogere productiviteit bij het werken met grote AI-modellen zoals Llama 3.3-70B. Misschien wel het meest indrukwekkend is dat Pixar opmerkte dat 99% van hun productieshots nu binnen het 96 GB geheugen van een enkele GPU passen.
De RTX Pro 6000 Blackwell Server Edition brengt deze mogelijkheden naar datacenteromgevingen met een passief gekoeld ontwerp voor 24/7-werking. Deze op servers gerichte variant levert 5x hogere doorvoer van inferentie van grote taalmodellen, 7x snellere genomics-sequencing, 3.3x snellere tekst-naar-videogeneratie en 2x verbeteringen in inferentie en rendering van aanbevelingssystemen vergeleken met hardware van de vorige generatie. Voor het eerst maken deze GPU's zowel vGPU- als Multi-Instance GPU (MIG)-technologie mogelijk, waarmee elke kaart kan worden gepartitioneerd in maximaal vier volledig geïsoleerde instanties, waardoor het gebruik van bronnen voor diverse workloads wordt gemaximaliseerd. Desktopversies van deze GPU's zullen naar verwachting in april op de markt komen, gevolgd door server-tegenhangers in mei en OEM-gebaseerde laptops in juni.
NVIDIA Fotonica
NVIDIA Photonics, een innovatie die optische netwerken binnen AI-datacenters moet transformeren, rondde de hardwareaankondigingen af. Door traditionele pluggable transceivers te vervangen door co-packaged optische engines die zich op dezelfde behuizing bevinden als de switch-ASIC, minimaliseert NVIDIA Photonics het stroomverbruik en stroomlijnt het de dataconnectiviteit.
Met behulp van TSMC's fotonische engine-optimalisaties en aangevuld met microringmodulatoren, lasers met hoge efficiëntie en afneembare glasvezelconnectoren, is het nieuwe Photonics-platform ontworpen om tot 3.5x betere efficiëntie, 10x hogere veerkracht en implementatiesnelheden te leveren die 1.3x sneller zijn dan conventionele oplossingen. Bij het demonstreren van zijn bredere ecosysteembenadering, gaf NVIDIA gedetailleerd aan hoe zijn partnerschappen met leiders in geavanceerde verpakking en optische componentproductie centraal staan in het behalen van deze prestatieverbeteringen.
Met deze nieuwe ontwikkelingen, NVIDIA presenteerde drie nieuwe switches met de 200G SerDes in de Quantum-X en Spectrum-X switch families. De Quantum-X Infiniband lineup omvat de Quantum 3450-LD, die een indrukwekkende 144 poorten van 800G of 576 poorten van 200G heeft, met een bandbreedte van 115Tb/s. Op de Spectrum-X Ethernet switches varieert het portfolio van de compactere Spectrum SN6810, met 128 poorten van 800G of 512 poorten van 200G, tot de high-density Spectrum SN6800, met 512 poorten van 800G en 2048 poorten van 200G. Al deze switches zijn voorzien van vloeistofkoelingtechnologie om optimale prestaties en efficiëntie te behouden.
De NVIDIA Quantum-X Photonics InfiniBand-switches zullen naar verwachting later dit jaar beschikbaar zijn en de NVIDIA Spectrum-X Photonics Ethernet-switches zullen in 2026 verkrijgbaar zijn bij toonaangevende infrastructuur- en systeemleveranciers.
Hardware en software samenbrengen met Nvidia Dynamo
De aankondigingen van NVIDIA waren evenveel software als hardware. Om de rekenkracht van de nieuwe Blackwell GPU's volledig te benutten, introduceerde NVIDIA Dynamo, een AI-inferentiesoftware die speciaal is ontworpen om AI-modellen op schaal te bedienen.
NVIDIA Dynamo is een open-source inferentieplatform dat is ontworpen om de implementatie van grootschalige AI-modellen in hele datacenters te optimaliseren. Dynamo's unieke gedistribueerde en gedesaggregeerde architectuur stelt het in staat om een enkele query over meerdere GPU's te schalen, wat de inferentiewerklasten aanzienlijk versnelt. Door verwerkingstaken intelligent te splitsen tussen invoertokenberekening en uitvoertokens en de sterke punten van NVIDIA's NVLink-interconnect te benutten, bereikt het tot 30x prestatieverbeteringen voor redeneerintensieve modellen zoals DeepSeek R1.
Opmerkelijk genoeg verdubbelt Dynamo zelfs de doorvoer van bestaande LLM's, zoals LLAMA, op Hopper GPU's zonder extra hardware, wat effectief de tokengeneratie en het inkomstenpotentieel voor AI-fabrieken verdubbelt. Met Dynamo brengt NVIDIA hyperscale-level optimalisaties naar iedereen en maakt ze beschikbaar, zodat iedereen volledig kan profiteren van het transformatieve potentieel van AI.
Dynamo is vanaf vandaag beschikbaar op GitHub en ondersteunt populaire backends, waaronder PyTorch, BLM, SGLang en TensorRT.
Nvidia AI-Q: de volgende generatie van Agentic AI-systemen
NVIDIA introduceerde ook AI-Q, uitgesproken als "IQ", een blauwdruk om AI-agenten naadloos te verbinden met grootschalige bedrijfsgegevens en -tools. Dit open-sourceframework stelt agenten in staat om meerdere gegevenstypen te bevragen en te redeneren, waaronder tekst, afbeeldingen en video, en externe tools zoals webzoekopdrachten en andere agenten te benutten.
De kern van AI-Q is de nieuwe NVIDIA AgentIQ-toolkit, een open-source softwarebibliotheek die vandaag op GitHub is uitgebracht. AgentIQ faciliteert het verbinden, profileren en optimaliseren van multi-agentsystemen, waardoor ondernemingen geavanceerde digitale workforces kunnen bouwen. AgentIQ integreert naadloos met bestaande multi-agentframeworks, waaronder CrewAI, LangGraph, Llama Stack, Microsoft Azure AI Agent Service en Letta, waardoor ontwikkelaars het stapsgewijs of als een complete oplossing kunnen implementeren.
NVIDIA werkt ook samen met toonaangevende dataopslagproviders om een AI-dataplatformreferentiearchitectuur te creëren die NVIDIA NeMo Retriever, AI-Q Blueprint, Blackwell GPU's, Spectrum X-netwerken en Bluefield DPU's integreert. Om bijna realtime gegevensverwerking en snelle kennisopvraging te garanderen, worden AI-agents voorzien van essentiële business intelligence.
Vanaf april kunnen ontwikkelaars AI-Q uitproberen.
NVIDIA Mission Control: het orkestreren van de AI-fabriek
Voortbouwend op zijn uitgebreide softwarestrategie, onthulde NVIDIA Mission Control, het enige uniforme operationele en orkestratiesoftwareplatform in de industrie dat is ontworpen om het complexe beheer van AI-datacenters en -werklasten te automatiseren. Terwijl Dynamo inferentie optimaliseert en AI-Q agentische systemen mogelijk maakt, richt Mission Control zich op de kritieke infrastructuurlaag die de basis vormt van de volledige AI-pijplijn.
Mission Control transformeert de manier waarop ondernemingen AI-infrastructuur implementeren en beheren, door end-to-end management te automatiseren, inclusief provisioning, monitoring en foutdiagnose. Het platform maakt naadloze overgangen mogelijk tussen training en inferentiewerklasten op Blackwell-gebaseerde systemen, waardoor organisaties clusterbronnen opnieuw kunnen toewijzen naarmate prioriteiten dynamisch verschuiven. Mission Control, dat de door NVIDIA verworven Run:ai-technologie integreert, verhoogt het infrastructuurgebruik tot 5x en levert tot 10x sneller herstel van taken dan traditionele methoden die handmatige tussenkomst vereisen.
De software biedt verschillende operationele voordelen die cruciaal zijn voor moderne AI-workloads, waaronder vereenvoudigde clusteropstelling, naadloze workloadorkestratie voor SUNK-workflows (Slurm en Kubernetes), energiegeoptimaliseerde energieprofielen met door ontwikkelaars selecteerbare bedieningselementen en autonome jobherstelmogelijkheden. Extra functies omvatten aanpasbare prestatiedashboards, on-demand gezondheidscontroles en integratie van gebouwbeheersystemen voor verbeterd koel- en energiebeheer.
Grote systeemmakers, waaronder Dell, HPE, Lenovo en Supermicro, hebben plannen aangekondigd om NVIDIA GB200 NVL72 en GB300 NVL72 systemen aan te bieden die zijn uitgerust met Mission Control. Dell zal de software integreren in zijn AI Factory met NVIDIA, terwijl HPE het zal aanbieden met zijn Grace Blackwell rack-scale systemen. Lenovo is van plan om zijn Hybrid AI Advantage-oplossingen te updaten met Mission Control, en Supermicro zal het integreren in hun Supercluster-systemen.
NVIDIA Mission Control is al beschikbaar voor DGX GB200- en DGX B200-systemen, met ondersteuning voor DGX GB300-, DGX B300- en GB300 NVL72-systemen die later dit jaar wordt verwacht. Voor organisaties die willen beginnen met het beheren van AI-infrastructuur, heeft NVIDIA ook aangekondigd dat Base Command Manager-software binnenkort gratis zal zijn voor maximaal acht accelerators per systeem, ongeacht de clustergrootte.
Conclusie
NVIDIA's GTC 2025 heeft het toneel gezet voor een transformatieve sprong in AI-technologie, met baanbrekende ontwikkelingen op het gebied van hardware, software en infrastructuur. Van de krachtige B300 GPU's gebouwd op de Blackwell Ultra-architectuur tot de revolutionaire DGX Spark- en DGX Station-systemen, NVIDIA blijft herdefiniëren wat mogelijk is in AI-computing. De introductie van NVIDIA Photonics, Dynamo-inferentiesoftware, AI-Q agentische frameworks en Mission Control-orchestratieplatform zal bedrijven helpen sneller op de markt te komen en efficiënter te schalen en zal ongetwijfeld NVIDIA verder verstevigen als leider in deze ruimte.
Toch is dit slechts het topje van de ijsberg. Er is nog veel meer innovatie en inzicht te ontdekken bij GTC. Blijf op de hoogte en kijk uit naar onze andere nieuwsartikelen deze week, terwijl we u de laatste aankondigingen en diepe duiken in de opwindende toekomst van NVIDIA blijven brengen.
Neem contact op met StorageReview
Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed