NVIDIA inledde GTC 2022-sessionen med en keynote av VD Jensen Huang som var tung med imponerande grafik och animation. Keynoten hade något för alla. Spelare får en ny GeForce RTX 40 GPU; imponerande neural rendering för spel och applikationer; NVIDIA Hopper går i full produktion; stora språkmodell molntjänster förskott AI; Omnivers molntjänster; OVX datorsystem; en GPU för designers och kreatörer; bilar få DRIVE Thor; Jetson Orin Nano för AI på nybörjarnivå; och IGX Edge AI-datorplattform.
NVIDIA inledde GTC 2022-sessionen med en keynote av VD Jensen Huang som var tung med imponerande grafik och animation. Keynoten hade något för alla. Spelare får en ny GeForce RTX 40 GPU; imponerande neural rendering för spel och applikationer; NVIDIA Hopper går i full produktion; stora språkmodell molntjänster förskott AI; Omnivers molntjänster; OVX datorsystem; en GPU för designers och kreatörer; bilar få DRIVE Thor; Jetson Orin Nano för AI på nybörjarnivå; och IGX Edge AI-datorplattform.
GeForce RTX 40
Först på agendan var tillkännagivandet av nästa generations GPUS i GeForce RTX 40-serien som drivs av ADA Lovelace, designad för att leverera extrem prestanda för spelare och kreatörer. Den nya flaggskeppsmodellen, RTX 4090 GPU, är upp till 4x prestanda från sin föregångare.
Den första grafikprocessorn baserad på den nya NVIDIA Ada Lovelace-arkitekturen, RTX 40-serien ger språng i prestanda och effektivitet och representerar en ny era av realtidsstrålspårning och neural rendering, som använder AI för att generera pixlar. RTX 40-seriens grafikprocessorer har en rad nya tekniska innovationer, inklusive:
- Strömmande multiprocessorer med upp till 83 teraflops shaderkraft — 2x jämfört med föregående generation.
- Tredje generationens RT-kärnor med upp till 191 effektiva ray-tracing teraflops — 2.8x jämfört med föregående generation.
- Fjärde generationens Tensor Cores med upp till 1.32 Tensor petaflops — 5x jämfört med föregående generation med FP8-acceleration.
- Shader Execution Reordering (SER) förbättrar exekveringseffektiviteten genom att schemalägga skuggningsarbetsbelastningar i farten för att utnyttja grafikprocessorns resurser bättre. SER förbättrar ray-tracing prestanda upp till 3x och in-game frame rates med upp till 25%.
- Ada Optical Flow Accelerator med 2x snabbare prestanda gör att DLSS 3 kan förutsäga rörelse i en scen, vilket gör det möjligt för det neurala nätverket att öka bildhastigheten samtidigt som bildkvaliteten bibehålls.
- Arkitektoniska förbättringar tätt kopplade till anpassad TSMC 4N processteknik resulterar i ett upp till 2x språng i energieffektivitet.
- Dubbla NVIDIA-kodare (NVENC) minskar exporttiden med upp till hälften och har AV1-stöd. NVENC AV1-kodningen antas av OBS, Blackmagic Design, DaVinci Resolve, Discord och mer.
DLSS 3 genererar hela ramar för snabbare spel
Nästa var NVIDIA DLSS 3, nästa revolution inom företagets Deep Learning Super Sampling neurala grafikteknologi för spel och kreativa appar. Den AI-drivna tekniken kan generera hela ramar för extremt snabb spelning, övervinna CPU-prestandabegränsningar i spel genom att tillåta GPU:n att generera hela ramar oberoende.
Tekniken kommer till populära spelmotorer som Unity och Unreal Engine och har fått stöd från ledande spelutvecklare, med mer än 35 spel och appar som kommer snart.
H100 Tensor Core GPU
Din NVIDIA H100 Tensor Core GPU är i full produktion och partners planerar en lansering i oktober för den första vågen av produkter och tjänster baserade på NVIDIA Hopper-arkitekturen.
H100, som tillkännagavs i mars, är byggd med 80 miljarder transistorer och drar nytta av en kraftfull ny transformatormotor och en NVIDIA NVLink-interconnect för att accelerera de största AI-modellerna, som avancerade rekommendatorsystem och stora språkmodeller, och för att driva innovationer inom områden som t.ex. konversations-AI och drogupptäckt.
H100 GPU drivs av flera viktiga innovationer i NVIDIAs accelererade datacenterplattform, inklusive andra generationens Multi-Instance GPU, konfidentiell datoranvändning, fjärde generationens NVIDIA NVLink och DPX-instruktioner.
En femårig licens för NVIDIA AI Enterprise-programsviten ingår nu i H100 för vanliga servrar. Detta optimerar utvecklingen och distributionen av AI-arbetsflöden och säkerställer att organisationer har tillgång till AI-ramverk och verktyg som behövs för att bygga AI-chatbotar, rekommendationsmotorer, vision AI och mer.
Kommer till en plattform nära dig
För kunder som vill prova den nya tekniken omedelbart meddelade NVIDIA att H100 på Dell PowerEdge-servrar nu är tillgänglig på NVIDIA LaunchPad, som ger gratis praktiska labb, vilket ger företag tillgång till den senaste hårdvaran och NVIDIA AI-mjukvaran.
Kunder kan också börja beställa NVIDIA DGX H100-system, som inkluderar åtta H100 GPU:er och levererar 32 petaflops prestanda med FP8-precision. NVIDIA Base Command och NVIDIA AI Enterprise-programvara driver varje DGX-system, vilket möjliggör distributioner från en enda nod till en NVIDIA DGX SuperPOD, vilket stöder avancerad AI-utveckling av stora språkmodeller och andra massiva arbetsbelastningar.
Partners byggsystem inkluderar Atos, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Lenovo och Supermicro.
Dessutom kommer några av världens ledande institutioner för högre utbildning och forskning att använda H100 för att driva sina nästa generations superdatorer. Bland dem finns Barcelona Supercomputing Center, Los Alamos National Lab, Swiss National Supercomputing Center (CSCS), Texas Advanced Computing Center och University of Tsukuba.
H100 kommer till molnet
Amazon Web Services, Google Cloud, Microsoft Azure och Oracle Cloud Infrastructure kommer att vara bland de första att distribuera H100-baserade instanser i molnet från och med nästa år.
NVIDIA Large Language Model Cloud AI Services
NVIDIA NeMo Large Language Model Service och NVIDIA BioNeMo LLM Service, AI-tjänster för stora språkmodeller, tillkännagavs. Denna nya LLM-tjänst gör det möjligt för utvecklare att enkelt anpassa LLM:er och distribuera skräddarsydda AI-applikationer för innehållsgenerering, textsammanfattning, chatbots, kodutveckling, proteinstruktur och biomolekylära egenskaper, med mera.
NeMo LLM Service tillåter utvecklare att snabbt skräddarsy ett antal förutbildade grundmodeller med hjälp av en träningsmetod som kallas prompt inlärning på NVIDIA-hanterad infrastruktur. NVIDIA BioNeMo Service är ett molnapplikationsprogrammeringsgränssnitt (API) som utökar LLM-användningsfall bortom språkliga och vetenskapliga applikationer för att påskynda läkemedelsupptäckten för läkemedels- och bioteknikföretag.
Omniversum
NVIDIA Omniverse Cloud är företagets första programvaru- och infrastruktur-som-en-tjänst-erbjudande. Omniverse är en svit med molntjänster för artister, utvecklare och företagsteam för att designa, publicera, driva och uppleva metaverse-applikationer var som helst.
Med Omniverse Cloud kan individer och team med ett klick uppleva möjligheten att designa och samarbeta i 3D-arbetsflöden utan att behöva någon lokal datorkraft. Robotister kan träna, simulera, testa och distribuera AI-aktiverade intelligenta maskiner med ökad skalbarhet och tillgänglighet. Autonoma fordonsingenjörer kan generera fysiskt baserade sensordata och simulera trafikscenarier för att testa olika väg- och väderförhållanden för säker självkörning.
Tidiga supportrar av Omniverse Cloud inkluderar RIMAC Group, WPP och Siemens.
Omniverse molntjänster
Omniverse Cloud-tjänster körs på Omniverse Cloud Computer, ett datorsystem som består av NVIDIA OVX för grafik och fysiksimulering, NVIDIA HGX för avancerade AI-arbetsbelastningar och NVIDIA Graphics Delivery Network (GDN), ett globalt distribuerat datacenternätverk för leverans. högpresterande metaversgrafik med låg latens vid kanten.
Omniverse Cloud-tjänster inkluderar:
- Omniverse Nucleus Cloud — ger 3D-designers och team friheten att samarbeta och få tillgång till en delad Universal Scene Description (USD)-baserad 3D-scen och data. Nucleus Cloud gör det möjligt för alla designers, skapare eller utvecklare att spara ändringar, dela, göra liveredigeringar och se ändringar i en scen från nästan var som helst.
- Omniverse App Streaming — gör det möjligt för användare utan NVIDIA RTX™ GPU:er att strömma Omniverse referensapplikationer som Omniverse Create, en app för designers och skapare för att bygga USD-baserade virtuella världar; Omniverse View, en app för recensioner och godkännanden; och NVIDIA Isaac Sim, för att träna och testa robotar.
- Omniverse Replicator — gör det möjligt för forskare, utvecklare och företag att generera fysiskt korrekt 3D-syntetisk data och enkelt bygga anpassade syntetiska datagenereringsverktyg för att påskynda utbildningen och noggrannheten i perceptionsnätverk och enkelt integrera med NVIDIA AI-molntjänster.
- Omniverse Farm — gör det möjligt för användare och företag att utnyttja flera molnberäkningsinstanser för att skala ut Omniverse-uppgifter som rendering och generering av syntetisk data.
- NVIDIA Isaac Sim — en skalbar robotsimuleringsapplikation och ett verktyg för generering av syntetisk data som driver fotorealistiska, fysiskt exakta virtuella miljöer för att utveckla, testa och hantera AI-baserade robotar.
- NVIDIA DRIVE Sim — en end-to-end-simuleringsplattform för att köra storskaliga, fysiskt exakta multisensorsimuleringar för att stödja autonom fordonsutveckling och validering från idé till implementering, vilket förbättrar utvecklarens produktivitet och accelererar tiden till marknad.
OVX Computing Services
NVIDIA tillkännagav den andra generationen av NVIDIA OVX, som drivs av NVIDIA Ada Lovelace GPU-arkitekturen och förbättrad nätverksteknik, för att leverera realtidsgrafik, AI och digital tvillingsimulering.
De nya NVIDIA OVX-systemen är designade för att bygga virtuella 3D-världar med hjälp av ledande 3D-programvaruapplikationer och för att driva uppslukande digitala tvillingsimuleringar i NVIDIA Omniverse Enterprise, en skalbar, end-to-end-plattform som gör det möjligt för företag att bygga och driva metaverse-applikationer.
NVIDIA OVX är ett datorsystem designat för att driva storskaliga Omniverse digitala tvillingar. Den kommer att levereras till några av världens mest sofistikerade design- och ingenjörsteam hos företag som BMW Group och Jaguar Land Rover.
Drivkraften för de nya OVX-systemen är NVIDIA L40 GPU, också baserad på NVIDIA Ada Lovelace GPU-arkitekturen, som ger de högsta nivåerna av kraft och prestanda för att bygga komplexa industriella digitala tvillingar.
L40 GPU:s tredje generationens RT-kärnor och fjärde generationens Tensor-kärnor kommer att leverera kraftfulla funktioner till Omniverse-arbetsbelastningar som körs på OVX, inklusive accelererad ray-traced och path-traced rendering av material, fysiskt exakta simuleringar och fotorealistisk 3D-syntetisk datagenerering. L40 kommer också att finnas tillgänglig i NVIDIA-certifierade systemservrar från stora OEM-leverantörer för att driva RTX-arbetsbelastningar från datacentret.
NVIDIA OVX inkluderar även NVIDIA ConnectX-7 SmartNIC, som ger förbättrad nätverks- och lagringsprestanda och den precisa timingsynkronisering som krävs för verklighetstrogna digitala tvillingar. ConnectX-7 inkluderar stöd för 200G-nätverk på varje port och snabb in-line datakryptering för att påskynda datarörelsen och öka säkerheten för digitala tvillingar.
NVIDIA RTX 6000 arbetsstation GPU
NVIDIA RTX 6000 Ada Generation GPU levererar realtidsrendering, grafik och AI. Designers och ingenjörer kan driva avancerade, simuleringsbaserade arbetsflöden för att bygga och validera mer sofistikerade konstruktioner. Artister kan ta storytelling till nästa nivå, skapa mer övertygande innehåll och bygga uppslukande virtuella miljöer. Forskare, forskare och medicinsk personal kan påskynda utvecklingen av livräddande mediciner och procedurer med superdatorkraft på sina arbetsstationer. Allt med upp till 2-4 gånger prestandan från föregående generations RTX A6000.
Designad för neural grafik och avancerad simulering av virtuell värld, RTX 6000, med Ada generation AI och programmerbar shader-teknik, är den idealiska plattformen för att skapa innehåll och verktyg för metaversen med NVIDIA Omniverse Enterprise. RTX 6000 gör det möjligt för användare att skapa detaljerat innehåll, utveckla komplexa simuleringar och bilda de byggstenar som krävs för att konstruera övertygande och engagerande virtuella världar.
Nästa generations RTX-teknik
NVIDIA RTX 6000 drivs av NVIDIA Ada-arkitekturen och har den senaste NVIDIA RTX-tekniken med funktioner som:
- Tredje generationens RT-kärnor: Upp till 2x kapaciteten från föregående generation med möjligheten att samtidigt köra strålspårning med antingen skuggnings- eller avbrusningsfunktioner.
- Fjärde generationens Tensor Cores: Upp till 2 gånger snabbare AI-träningsprestanda än föregående generation med utökat stöd för FP8-dataformatet.
- CUDA-kärnor: Upp till 2x flyttalskapaciteten med enkel precision jämfört med föregående generation.
- GPU-minne: Har 48 GB GDDR6-minne för att arbeta med de största 3D-modellerna, rendera bilder, simulering och AI-datauppsättningar.
- virtualisering: Kommer att stödja NVIDIA Virtual GPU (vGPU)-programvara för flera högpresterande virtuella arbetsstationsinstanser, vilket gör det möjligt för fjärranvändare att dela resurser och driva avancerad design, AI och beräkningar.
- XR: Har 3 gånger så hög videokodningsprestanda som föregående generation för streaming av flera samtidiga XR-sessioner med NVIDIA CloudXR.
NVIDIA DRIVE Orin
Produktionen startar för den autonoma fordonsdatorn NVIDIA DRIVE Orin, visade upp nya biltillverkare som använder NVIDIA DRIVE™-plattformen och presenterade nästa generation av sin NVIDIA DRIVE Hyperion-arkitektur. NVIDIA meddelade också att dess bilpipeline har ökat till över 11 miljarder dollar under de kommande sex åren, efter en serie designvinster med fordonstillverkare från hela världen.
Mer än 25 fordonstillverkare har antagit NVIDIA DRIVE Orin system-on-a-chip (SoC). Från och med i år introducerar de mjukvarudefinierade fordon byggda på den centraliserade AI-beräkningsplattformen.
DRIVE Hyperion med NVIDIA Orin fungerar som det centrala nervsystemet och AI-hjärnan för nya energifordon, och levererar ständigt förbättrade, banbrytande AI-funktioner samtidigt som man säkerställer säker och säker körkapacitet.
Dessutom tillkännagavs nästa generation av DRIVE Hyperion-arkitekturen, byggd på Atlan-datorn, för fordon som börjar levereras 2026. DRIVE Hyperion-plattformen är designad för att skala över generationer så att kunder kan dra nytta av nuvarande investeringar för framtida arkitekturer.
Nästa generations plattform kommer att öka prestandan för bearbetning av sensordata och utöka driftsdomänerna för full självkörning. DRIVE Hyperion 9 kommer att innehålla 14 kameror, nio radarer, tre lidarer och 20 ultraljud som en del av sin sensorsvit.
NVIDIA DRIVE Thor
NVIDIA DRIVE Thor är nästa generations centraliserade dator för säkra och säkra autonoma fordon. DRIVE Thor uppnår upp till 2,000 XNUMX teraflops och förenar intelligenta funktioner, inklusive automatiserad och assisterad körning, parkering, övervakning av förare och passagerare, digitalt instrumentkluster, infotainment i fordon (IVI) och underhållning i baksätet i en enda arkitektur för större effektivitet och lägre totala systemkostnaden.
Nästa generations superchip kommer packat med de banbrytande AI-funktionerna som först introducerades i NVIDIA Hopper Multi-Instance GPU-arkitekturen, tillsammans med NVIDIA Grace CPU och NVIDIA Ada Lovelace GPU. DRIVE Thor, med MIG-stöd för grafik och beräkning, gör det möjligt för IVI och avancerade förarassistanssystem att köra domänisolering, vilket gör att samtidiga tidskritiska processer kan köras utan avbrott. Tillgänglig för biltillverkares 2025-modeller kommer den att påskynda produktionens färdplaner genom att tillföra marknaden högre prestanda och avancerade funktioner inom samma tidslinje.
NVIDIA Jetson Orin Nano
NVIDIA tillkännagav expansionen av NVIDIA Jetson-sortimentet med lanseringen av nya Jetson Orin Nano system-on-moduler som levererar upp till 80x prestanda jämfört med föregående generation, vilket sätter en ny standard för nybörjar-AI och robotik.
NVIDIA Jetson-familjen sträcker sig nu över sex Orin-baserade produktionsmoduler som stöder ett komplett utbud av avancerad AI och robotapplikationer. Detta inkluderar Orin Nano, som levererar upp till 40 biljoner operationer per sekund (TOPS) av AI-prestanda i den minsta Jetson-formfaktorn, upp till AGX Orin, som levererar 275 TOPS för avancerade autonoma maskiner.
Jetson Orin har en NVIDIA Ampere-arkitektur GPU, armbaserade processorer, nästa generations djupinlärnings- och visionacceleratorer, höghastighetsgränssnitt, snabb minnesbandbredd och multimodalt sensorstöd. Denna prestanda och mångsidighet gör det möjligt för fler kunder att kommersialisera produkter som en gång verkade omöjliga, från ingenjörer som distribuerar avancerade AI-applikationer till utvecklare av Robotics Operating System (ROS) som bygger nästa generations intelligenta maskiner.
NVIDIA IGX Edge AI
NVIDIA IGX-plattformen tillkännagavs idag. IGX används för AI med hög precision, vilket ger avancerad säkerhet och proaktiv säkerhet till känsliga industrier som tillverkning, logistik och hälsovård. Tidigare krävde sådana industrier kostsamma lösningar skräddarsydda för specifika användningsfall, men IGX-plattformen är lätt programmerbar och konfigurerbar för att passa olika behov.
IGX tillhandahåller ett extra lager av säkerhet i starkt reglerade fysiska fabriker och lager för tillverkning och logistik. För medicinsk edge AI-användning, levererar IGX säker AI-inferens med låg latens för att möta det kliniska behovet av momentana insikter från olika instrument och sensorer för medicinska procedurer, såsom robotassisterad kirurgi och patientövervakning.
NVIDIA IGX-plattform — Säkerställer efterlevnad i Edge AI
NVIDIA IGX-plattformen är en kraftfull kombination av hårdvara och mjukvara som inkluderar NVIDIA IGX Orin, en kraftfull, kompakt och energieffektiv AI-superdator för autonoma industriella maskiner och medicinsk utrustning.
IGX Orin utvecklarsatser kommer att finnas tillgängliga i början av nästa år för företag att prototyper och testa produkter. Varje kit har en integrerad GPU och CPU för högpresterande AI-beräkning och en NVIDIA ConnectX-7 SmartNIC för att leverera högpresterande nätverk med ultralåg latens och avancerad säkerhet.
Dessutom ingår en kraftfull mjukvarustack med kritiska säkerhets- och säkerhetsfunktioner som kan programmeras och konfigureras för olika användningsfall. Dessa funktioner gör det möjligt för företag att lägga till proaktiv säkerhet i miljöer där människor och robotar arbetar sida vid sida, såsom lagergolv och operationssalar.
IGX-plattformen kan köra NVIDIA AI Enterprise-programvara, optimera utvecklingen och distributionen av AI-arbetsflöden och säkerställa att organisationer har tillgång till nödvändiga AI-ramverk och verktyg. NVIDIA arbetar också med operativsystempartners som Canonical, Red Hat och SUSE för att ge plattformen fullstack och långsiktig support.
För hantering av IGX i industriella och medicinska miljöer tillåter NVIDIA Fleet Command organisationer att distribuera säker, over-the-air mjukvara och systemuppdateringar från en central molnkonsol.
Klicka på länken för att få hela historien om GTC 2022 Keynote.
Engagera dig med StorageReview
Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Rssflöde