NVIDIA trapte de GTC 2022-sessie af met een keynote van CEO Jensen Huang die bol stond van indrukwekkende graphics en animaties. De keynote had voor elk wat wils. Gamers krijgen een nieuwe GeForce RTX 40 GPU; indrukwekkende neurale weergave voor games en applicaties; NVIDIA Hopper gaat volledig in productie; cloudservices met een groot taalmodel bevorderen AI; Omniverse Cloud-services; OVX Computersystemen; een GPU voor ontwerpers en makers; auto krijgt DRIVE Thor; Jetson Orin Nano voor AI op instapniveau; en IGX Edge AI-computerplatform.
NVIDIA trapte de GTC 2022-sessie af met een keynote van CEO Jensen Huang die bol stond van indrukwekkende graphics en animaties. De keynote had voor elk wat wils. Gamers krijgen een nieuwe GeForce RTX 40 GPU; indrukwekkende neurale weergave voor games en applicaties; NVIDIA Hopper gaat volledig in productie; cloudservices met een groot taalmodel bevorderen AI; Omniverse Cloud-services; OVX Computersystemen; een GPU voor ontwerpers en makers; auto krijgt DRIVE Thor; Jetson Orin Nano voor AI op instapniveau; en IGX Edge AI-computerplatform.
GeForce RTX 40
Als eerste op de agenda stond de aankondiging van de volgende generatie GeForce RTX 40-serie GPU's aangedreven door ADA Lovelace, ontworpen om extreme prestaties te leveren voor gamers en videomakers. Het nieuwe vlaggenschipmodel, de RTX 4090 GPU, presteert tot 4x beter dan zijn voorganger.
De RTX 40-serie, de eerste GPU op basis van de nieuwe NVIDIA Ada Lovelace-architectuur, levert sprongen in prestaties en efficiëntie en vertegenwoordigt een nieuw tijdperk van real-time raytracing en neurale weergave, waarbij AI wordt gebruikt om pixels te genereren. De GPU's uit de RTX 40-serie beschikken over een reeks nieuwe technologische innovaties, waaronder:
- Streaming multiprocessors met tot 83 teraflops aan shader-kracht - 2x meer dan de vorige generatie.
- RT Cores van de derde generatie met tot 191 effectieve ray-tracing teraflops - 2.8x meer dan de vorige generatie.
- Vierde generatie Tensor Cores met maximaal 1.32 Tensor petaflops - 5x meer dan de vorige generatie met FP8-versnelling.
- Shader Execution Reordering (SER) verbetert de uitvoeringsefficiëntie door shading-workloads on-the-fly opnieuw te plannen om de bronnen van de GPU beter te benutten. SER verbetert de ray-tracing-prestaties tot 3x en in-game frame rates met maximaal 25%.
- Ada Optical Flow Accelerator met 2x snellere prestaties stelt DLSS 3 in staat om beweging in een scène te voorspellen, waardoor het neurale netwerk framesnelheden kan verhogen terwijl de beeldkwaliteit behouden blijft.
- Bouwkundige verbeteringen die nauw zijn gekoppeld aan aangepaste TSMC 4N-procestechnologie resulteren in een tot 2x sprong in energie-efficiëntie.
- Dubbele NVIDIA-encoders (NVENC) verkorten de exporttijden tot de helft en beschikken over AV1-ondersteuning. De NVENC AV1-codering wordt overgenomen door OBS, Blackmagic Design, DaVinci Resolve, Discord en meer.
DLSS 3 genereert volledige frames voor snellere gameplay
De volgende was de NVIDIA DLSS 3, de volgende revolutie in de Deep Learning Super Sampling neurale grafische technologie van het bedrijf voor games en creatieve apps. De AI-aangedreven technologie kan hele frames genereren voor extreem snelle gameplay, waarbij de CPU-prestatiebeperkingen in games worden overwonnen door de GPU in staat te stellen volledige frames onafhankelijk te genereren.
De technologie komt naar populaire game-engines zoals Unity en Unreal Engine en heeft steun gekregen van toonaangevende game-ontwikkelaars, met binnenkort meer dan 35 games en apps.
H100 Tensor Core-GPU
De NVIDIA H100 Tensor Core-GPU is in volle productie en partners plannen een uitrol in oktober voor de eerste reeks producten en diensten op basis van de NVIDIA Hopper-architectuur.
De in maart aangekondigde H100 is gebouwd met 80 miljard transistors en profiteert van een krachtige nieuwe Transformer Engine en een NVIDIA NVLink-interconnect om de grootste AI-modellen te versnellen, zoals geavanceerde aanbevelingssystemen en grote taalmodellen, en om innovaties te stimuleren op gebieden als conversatie-AI en medicijnontdekking.
De H100 GPU wordt aangedreven door verschillende belangrijke innovaties in NVIDIA's versnelde rekendatacenterplatform, waaronder tweede generatie Multi-Instance GPU, vertrouwelijk computergebruik, vierde generatie NVIDIA NVLink en DPX-instructies.
Een vijfjarige licentie voor de NVIDIA AI Enterprise-softwaresuite is nu inbegrepen bij H100 voor reguliere servers. Dit optimaliseert de ontwikkeling en implementatie van AI-workflows en zorgt ervoor dat organisaties toegang hebben tot de AI-frameworks en tools die nodig zijn om AI-chatbots, aanbevelingsengines, vision-AI en meer te bouwen.
Komt naar een platform bij jou in de buurt
Voor klanten die de nieuwe technologie meteen willen uitproberen, heeft NVIDIA aangekondigd dat H100 op Dell PowerEdge-servers nu beschikbaar is op NVIDIA LaunchPad, dat gratis hands-on labs biedt, waardoor bedrijven toegang krijgen tot de nieuwste hardware en NVIDIA AI-software.
Klanten kunnen ook beginnen met het bestellen van NVIDIA DGX H100-systemen, die acht H100 GPU's bevatten en 32 petaflops aan prestaties leveren met FP8-precisie. NVIDIA Base Command en NVIDIA AI Enterprise-software sturen elk DGX-systeem aan, waardoor implementaties mogelijk zijn van een enkel knooppunt tot een NVIDIA DGX SuperPOD, ter ondersteuning van geavanceerde AI-ontwikkeling van grote taalmodellen en andere enorme workloads.
Partners die systemen bouwen zijn onder meer Atos, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Lenovo en Supermicro.
Bovendien zullen enkele van 's werelds toonaangevende instellingen voor hoger onderwijs en onderzoek H100 gebruiken om hun supercomputers van de volgende generatie aan te drijven. Onder hen zijn het Barcelona Supercomputing Center, Los Alamos National Lab, Swiss National Supercomputing Center (CSCS), Texas Advanced Computing Center en de Universiteit van Tsukuba.
H100 komt naar de cloud
Amazon Web Services, Google Cloud, Microsoft Azure en Oracle Cloud Infrastructure zullen vanaf volgend jaar als een van de eersten H100-gebaseerde instances in de cloud implementeren.
NVIDIA Large Language Model Cloud AI-services
NVIDIA NeMo Large Language Model Service en de NVIDIA BioNeMo LLM Service, cloud AI-services voor grote taalmodellen, werden aangekondigd. Deze nieuwe LLM-service stelt ontwikkelaars in staat om eenvoudig LLM's aan te passen en aangepaste AI-toepassingen in te zetten voor het genereren van inhoud, tekstsamenvatting, chatbots, codeontwikkeling, eiwitstructuur en voorspellingen van biomoleculaire eigenschappen, en meer.
Met de NeMo LLM-service kunnen ontwikkelaars snel een aantal vooraf getrainde basismodellen aanpassen met behulp van een trainingsmethode genaamd prompt learning op door NVIDIA beheerde infrastructuur. De NVIDIA BioNeMo Service is een cloud Application Programming Interface (API) die LLM use cases uitbreidt tot voorbij taal- en wetenschappelijke toepassingen om de ontdekking van geneesmiddelen voor farmaceutische en biotechbedrijven te versnellen.
Omniversum
NVIDIA Omniverse Cloud is het eerste software- en infrastructuur-as-a-service-aanbod van het bedrijf. Omniverse is een suite met cloudservices waarmee artiesten, ontwikkelaars en bedrijfsteams overal metaverse-applicaties kunnen ontwerpen, publiceren, bedienen en ervaren.
Met behulp van Omniverse Cloud kunnen individuen en teams met één klik ervaren hoe ze 3D-workflows kunnen ontwerpen en eraan kunnen samenwerken zonder dat er lokale rekenkracht nodig is. Robotici kunnen AI-compatibele intelligente machines trainen, simuleren, testen en implementeren met verhoogde schaalbaarheid en toegankelijkheid. Autonome voertuigingenieurs kunnen fysiek gebaseerde sensorgegevens genereren en verkeersscenario's simuleren om verschillende weg- en weersomstandigheden te testen voor een veilige zelfrijdende inzet.
Vroege aanhangers van Omniverse Cloud zijn onder meer RIMAC Group, WPP en Siemens.
Omniverse-cloudservices
Omniverse Cloud-services draaien op de Omniverse Cloud Computer, een computersysteem dat bestaat uit NVIDIA OVX voor grafische en fysische simulatie, NVIDIA HGX voor geavanceerde AI-workloads en het NVIDIA Graphics Delivery Network (GDN), een wereldwijd gedistribueerd datacenternetwerk voor het leveren van high-performance, low-latency metaverse graphics aan de rand.
Omniverse Cloud-services omvatten:
- Omniverse Nucleus Cloud — biedt 3D-ontwerpers en teams de vrijheid om samen te werken en toegang te krijgen tot een gedeelde op Universal Scene Description (USD) gebaseerde 3D-scène en -gegevens. Met Nucleus Cloud kan elke ontwerper, maker of ontwikkelaar vrijwel overal wijzigingen opslaan, delen, live bewerken en wijzigingen in een scène bekijken.
- Omniverse App Streaming — stelt gebruikers zonder NVIDIA RTX™ GPU's in staat om Omniverse-referentietoepassingen zoals Omniverse Create te streamen, een app voor ontwerpers en makers om op USD gebaseerde virtuele werelden te bouwen; Omniverse View, een app voor beoordelingen en goedkeuringen; en NVIDIA Isaac Sim, voor het trainen en testen van robots.
- Omniverse Replicator — stelt onderzoekers, ontwikkelaars en ondernemingen in staat om fysiek nauwkeurige synthetische 3D-gegevens te genereren en eenvoudig aangepaste tools voor het genereren van synthetische gegevens te bouwen om de training en nauwkeurigheid van waarnemingsnetwerken te versnellen en eenvoudig te integreren met NVIDIA AI-cloudservices.
- Omniverse Farm — stelt gebruikers en ondernemingen in staat om meerdere cloud computing-instances te gebruiken om Omniverse-taken uit te schalen, zoals rendering en het genereren van synthetische gegevens.
- NVIDIA Isaac Sim — een schaalbare robotica-simulatietoepassing en tool voor het genereren van synthetische gegevens die fotorealistische, fysiek nauwkeurige virtuele omgevingen aanstuurt voor het ontwikkelen, testen en beheren van op AI gebaseerde robots.
- NVIDIA DRIVE Sim — een end-to-end simulatieplatform om grootschalige, fysiek nauwkeurige simulaties met meerdere sensoren uit te voeren ter ondersteuning van de ontwikkeling en validatie van autonome voertuigen van concept tot implementatie, waardoor de productiviteit van ontwikkelaars wordt verbeterd en de time-to-market wordt versneld.
OVX-computerservices
NVIDIA kondigt de tweede generatie NVIDIA OVX aan, aangedreven door de NVIDIA Ada Lovelace GPU-architectuur en verbeterde netwerktechnologie, om real-time graphics, AI en digital twin-simulatiemogelijkheden te leveren.
De nieuwe NVIDIA OVX-systemen zijn ontworpen om virtuele 3D-werelden te bouwen met behulp van toonaangevende 3D-softwaretoepassingen en om meeslepende digitale tweelingsimulaties uit te voeren in NVIDIA Omniverse Enterprise, een schaalbaar, end-to-end-platform waarmee ondernemingen metaverse-toepassingen kunnen bouwen en gebruiken.
NVIDIA OVX is een computersysteem dat is ontworpen om grootschalige Omniverse digitale tweelingen aan te drijven. Hij zal worden geleverd aan enkele van 's werelds meest geavanceerde ontwerp- en engineeringteams bij bedrijven als BMW Group en Jaguar Land Rover.
De nieuwe OVX-systemen worden aangedreven door de NVIDIA L40 GPU, ook gebaseerd op de NVIDIA Ada Lovelace GPU-architectuur, die het hoogste niveau van kracht en prestaties biedt voor het bouwen van complexe industriële digitale tweelingen.
De derde generatie RT Cores en vierde generatie Tensor Cores van de L40 GPU zullen krachtige mogelijkheden bieden voor Omniverse-workloads die op OVX draaien, inclusief versnelde ray-traced en path-traced weergave van materialen, fysiek nauwkeurige simulaties en fotorealistische synthetische 3D-gegevensgeneratie. De L40 zal ook beschikbaar zijn in NVIDIA-gecertificeerde systeemservers van grote OEM-leveranciers om RTX-workloads vanuit het datacenter van stroom te voorzien.
NVIDIA OVX bevat ook de NVIDIA ConnectX-7 SmartNIC, die verbeterde netwerk- en opslagprestaties en de nauwkeurige timingsynchronisatie biedt die nodig is voor levensechte digitale tweelingen. ConnectX-7 biedt ondersteuning voor 200G-netwerken op elke poort en snelle in-line gegevensversleuteling om het verplaatsen van gegevens te versnellen en de beveiliging voor digitale tweelingen te vergroten.
NVIDIA RTX 6000 werkstation GPU
De NVIDIA RTX 6000 Ada Generation GPU levert real-time rendering, graphics en AI. Ontwerpers en technici kunnen geavanceerde, op simulatie gebaseerde workflows aansturen om geavanceerdere ontwerpen te bouwen en te valideren. Artiesten kunnen het vertellen van verhalen naar een hoger niveau tillen door boeiendere inhoud te creëren en meeslepende virtuele omgevingen te bouwen. Wetenschappers, onderzoekers en medische professionals kunnen de ontwikkeling van levensreddende medicijnen en procedures versnellen met supercomputerkracht op hun werkstations. Allemaal met tot 2-4x de prestaties van de vorige generatie RTX A6000.
De RTX 6000, ontworpen voor neurale graphics en geavanceerde simulatie van virtuele werelden, met Ada-generatie AI en programmeerbare shader-technologie, is het ideale platform voor het creëren van content en tools voor de metaverse met NVIDIA Omniverse Enterprise. De RTX 6000 stelt gebruikers in staat om gedetailleerde inhoud te creëren, complexe simulaties te ontwikkelen en de bouwstenen te vormen die nodig zijn om meeslepende en boeiende virtuele werelden te bouwen.
RTX-technologie van de volgende generatie
Aangedreven door de NVIDIA Ada-architectuur, beschikt de NVIDIA RTX 6000 over de allernieuwste NVIDIA RTX-technologie met functies zoals:
- RT-kernen van de derde generatie: Tot 2x de doorvoer van de vorige generatie met de mogelijkheid om gelijktijdig ray tracing uit te voeren met mogelijkheden voor schaduw of ruisonderdrukking.
- Tensorkernen van de vierde generatie: Tot 2x snellere AI-trainingsprestaties dan de vorige generatie met uitgebreide ondersteuning voor het FP8-gegevensformaat.
- CUDA-kernen: Tot 2x de single-precision floating-point doorvoer in vergelijking met de vorige generatie.
- GPU-geheugen: Beschikt over 48 GB GDDR6-geheugen voor het werken met de grootste 3D-modellen, renderafbeeldingen, simulatie en AI-datasets.
- virtualisatie: Ondersteunt NVIDIA virtual GPU (vGPU)-software voor meerdere krachtige virtuele werkstationinstanties, waardoor externe gebruikers bronnen kunnen delen en high-end ontwerp-, AI- en computerworkloads kunnen aansturen.
- XR: Beschikt over 3x de videocoderingsprestaties van de vorige generatie voor het streamen van meerdere gelijktijdige XR-sessies met behulp van NVIDIA CloudXR.
NVIDIA-SCHIJF Orin
De productie start voor de NVIDIA DRIVE Orin autonome voertuigcomputer, toont nieuwe autofabrikanten die het NVIDIA DRIVE™-platform gebruiken en onthult de volgende generatie van zijn NVIDIA DRIVE Hyperion-architectuur. NVIDIA kondigde ook aan dat zijn autopijplijn in de komende zes jaar is toegenomen tot meer dan $ 11 miljard, na een reeks ontwerpoverwinningen met autofabrikanten van over de hele wereld.
Meer dan 25 autofabrikanten hebben het NVIDIA DRIVE Orin system-on-a-chip (SoC) overgenomen. Vanaf dit jaar introduceren ze softwaregedefinieerde voertuigen die zijn gebouwd op het gecentraliseerde AI-rekenplatform.
DRIVE Hyperion met NVIDIA Orin fungeert als het centrale zenuwstelsel en AI-brein voor nieuwe energievoertuigen, levert voortdurend verbeterde, geavanceerde AI-functies en zorgt tegelijkertijd voor veilige rijmogelijkheden.
Ook werd de volgende generatie van de DRIVE Hyperion-architectuur aangekondigd, gebouwd op de Atlan-computer, voor voertuigen die in 2026 op de markt komen. Het DRIVE Hyperion-platform is ontworpen om over generaties heen te schalen, zodat klanten huidige investeringen voor toekomstige architecturen kunnen benutten.
Het platform van de volgende generatie zal de prestaties voor het verwerken van sensorgegevens verbeteren en de werkingsdomeinen van volledig zelfrijdend rijden uitbreiden. DRIVE Hyperion 9 zal 14 camera's, negen radars, drie lidars en 20 ultrasone trillingen bevatten als onderdeel van zijn sensorsuite.
NVIDIA-SCHIJF Thor
NVIDIA DRIVE Thor is de volgende generatie gecentraliseerde computer voor veilige en beveiligde autonome voertuigen. AANDRIJVING Thor bereikt tot 2,000 teraflops en verenigt intelligente functies, waaronder geautomatiseerd en geassisteerd rijden, parkeren, bewaking van bestuurder en inzittenden, digitaal instrumentenpaneel, infotainment in het voertuig (IVI) en entertainment op de achterbank in één enkele architectuur voor meer efficiëntie en lagere totale systeemkosten.
De superchip van de volgende generatie zit boordevol geavanceerde AI-mogelijkheden die voor het eerst werden geïntroduceerd in de NVIDIA Hopper Multi-Instance GPU-architectuur, samen met de NVIDIA Grace CPU en NVIDIA Ada Lovelace GPU. DRIVE Thor, met MIG-ondersteuning voor grafische weergave en rekenkracht, stelt IVI en geavanceerde driver-assistance-systemen in staat om domeinisolatie uit te voeren, waardoor gelijktijdige tijdkritische processen zonder onderbreking kunnen worden uitgevoerd. Het is beschikbaar voor 2025-modellen van autofabrikanten en zal de productieroutekaarten versnellen door hogere prestaties en geavanceerde functies in dezelfde tijdlijn op de markt te brengen.
NVIDIA Jetson Orin Nano
NVIDIA heeft de uitbreiding van de NVIDIA Jetson-serie aangekondigd met de lancering van de nieuwe Jetson Orin Nano system-on-modules die tot 80x betere prestaties leveren dan de vorige generatie, waarmee een nieuwe standaard wordt gezet voor edge-AI en robotica op instapniveau.
De NVIDIA Jetson-familie omvat nu zes op Orin gebaseerde productiemodules die een volledige reeks edge AI- en robotica-toepassingen ondersteunen. Dit omvat de Orin Nano, die tot 40 biljoen bewerkingen per seconde (TOPS) aan AI-prestaties levert in de kleinste Jetson-vormfactor, tot de AGX Orin, die 275 TOPS levert voor geavanceerde autonome machines.
Jetson Orin beschikt over een NVIDIA Ampere-architectuur GPU, Arm-gebaseerde CPU's, next-generation deep learning- en vision-versnellers, supersnelle interfaces, snelle geheugenbandbreedte en multimodale sensorondersteuning. Deze prestaties en veelzijdigheid stellen meer klanten in staat om producten te commercialiseren die ooit onmogelijk leken, van ingenieurs die edge AI-toepassingen implementeren tot ontwikkelaars van Robotics Operating System (ROS) die intelligente machines van de volgende generatie bouwen.
NVIDIA IGX Edge-AI
Het NVIDIA IGX-platform is vandaag aangekondigd. IGX wordt gebruikt voor zeer nauwkeurige edge-AI, waardoor geavanceerde beveiliging en proactieve veiligheid worden geboden aan gevoelige industrieën zoals productie, logistiek en gezondheidszorg. In het verleden hadden dergelijke industrieën dure oplossingen nodig die op maat waren gemaakt voor specifieke gebruikssituaties, maar het IGX-platform is eenvoudig programmeerbaar en configureerbaar om aan verschillende behoeften te voldoen.
IGX biedt een extra veiligheidslaag in sterk gereguleerde fabrieken en magazijnen in de fysieke wereld voor productie en logistiek. Voor toepassingen van medische edge-AI levert IGX veilige, low-latency AI-inferentie om tegemoet te komen aan de klinische vraag naar onmiddellijke inzichten van verschillende instrumenten en sensoren voor medische procedures, zoals robotondersteunde chirurgie en patiëntbewaking.
NVIDIA IGX-platform — Zorgen voor naleving in Edge AI
Het NVIDIA IGX-platform is een krachtige combinatie van hardware en software, waaronder NVIDIA IGX Orin, een krachtige, compacte en energiezuinige AI-supercomputer voor autonome industriële machines en medische apparaten.
IGX Orin-ontwikkelaarskits zullen begin volgend jaar beschikbaar zijn voor bedrijven om prototypes te maken en producten te testen. Elke kit heeft een geïntegreerde GPU en CPU voor krachtige AI-computing en een NVIDIA ConnectX-7 SmartNIC voor krachtige netwerken met ultralage latentie en geavanceerde beveiliging.
Ook inbegrepen is een krachtige softwarestack met kritieke beveiligings- en veiligheidsmogelijkheden die kunnen worden geprogrammeerd en geconfigureerd voor verschillende gebruikssituaties. Met deze functies kunnen ondernemingen proactieve veiligheid toevoegen aan omgevingen waar mensen en robots zij aan zij werken, zoals magazijnvloeren en operatiekamers.
Het IGX-platform kan NVIDIA AI Enterprise-software uitvoeren, waardoor de ontwikkeling en implementatie van AI-workflows wordt geoptimaliseerd en ervoor wordt gezorgd dat organisaties toegang hebben tot de benodigde AI-frameworks en -tools. NVIDIA werkt ook samen met besturingssysteempartners zoals Canonical, Red Hat en SUSE om full-stack, langdurige ondersteuning voor het platform te bieden.
Voor het beheer van IGX in industriële en medische omgevingen stelt NVIDIA Fleet Command organisaties in staat om veilige, draadloze software en systeemupdates te implementeren vanaf een centrale cloudconsole.
Klik op de link voor het volledige verhaal over de GTC 2022-keynote.
Neem contact op met StorageReview
Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed