Thuis EnterpriseAI Strategische samenwerking tussen AWS en NVIDIA biedt nieuwe supercomputerinfrastructuur, software en diensten voor generatieve AI

Strategische samenwerking tussen AWS en NVIDIA biedt nieuwe supercomputerinfrastructuur, software en diensten voor generatieve AI

by Jordaan Ranous

Tijdens de AWS re:Invent keynote kondigden AWS en NVIDIA een belangrijke ontwikkeling aan op het gebied van kunstmatige intelligentie (AI). AWS CEO Adam Selipsky nodigde NVIDIA CEO Jensen Huang uit op het podium om de strategische samenwerkingsinspanningen van de twee bedrijven toe te lichten. Dit partnerschap is bedoeld om de meest geavanceerde infrastructuur, software en diensten te leveren, waardoor generatieve AI-innovaties worden gestimuleerd. De samenwerking is een mix van de geavanceerde technologie van NVIDIA en de robuuste cloudinfrastructuur van AWS, en luidt een nieuw tijdperk in de AI-ontwikkeling in.

Tijdens de AWS re:Invent keynote kondigden AWS en NVIDIA een belangrijke ontwikkeling aan op het gebied van kunstmatige intelligentie (AI). AWS CEO Adam Selipsky nodigde NVIDIA CEO Jensen Huang uit op het podium om de strategische samenwerkingsinspanningen van de twee bedrijven toe te lichten. Dit partnerschap is bedoeld om de meest geavanceerde infrastructuur, software en diensten te leveren, waardoor generatieve AI-innovaties worden gestimuleerd. De samenwerking is een mix van de geavanceerde technologie van NVIDIA en de robuuste cloudinfrastructuur van AWS, en luidt een nieuw tijdperk in de AI-ontwikkeling in.

Een revolutie in cloud-AI met NVIDIA GH200 Grace Hopper Superchips

Een hoeksteen van deze samenwerking is de introductie van NVIDIA door AWS GH200 Grace Hopper-superchips in de cloud, een primeur onder cloudproviders. Deze superchips vertegenwoordigen een aanzienlijke sprong voorwaarts in cloudgebaseerd AI-computing. Het GH200 NVL32 multi-node platform, dat 32 Grace Hopper Superchips met elkaar verbindt met behulp van NVIDIA NVLink- en NVSwitch-technologieën, zal worden geïntegreerd in Amazon EC2-instanties. Deze nieuwe Amazon EC2-instances zijn geschikt voor verschillende AI-, HPC- en grafische workloads.

Elke GH200 Superchip combineert een Arm-gebaseerde Grace CPU met een NVIDIA Hopper-architectuur GPU op dezelfde module, waardoor een enkele EC2-instance tot 20 TB gedeeld geheugen kan leveren om workloads op terabyte-schaal aan te kunnen. Met deze opzet kunnen gezamenlijke klanten opschalen naar duizenden GH200 Superchips, wat ongekende rekenkracht biedt voor AI-onderzoek en -toepassingen.

Generatieve AI, HPC, ontwerp en simulatie stimuleren

AWS introduceert drie nieuwe EC2-instanties: de P5e-instanties, mogelijk gemaakt door NVIDIA H200 Tensor Core GPU's, zijn ontworpen voor grootschalige en geavanceerde generatieve AI- en HPC-workloads. De G6- en G6e-instanties, aangedreven door respectievelijk NVIDIA L4- en L40S-GPU's, zijn geschikt voor AI-verfijning, gevolgtrekking, grafische weergave en videoworkloads. De G6e-instanties zijn met name geschikt voor het ontwikkelen van 3D-workflows, digitale tweelingen en applicaties met behulp van NVIDIA Omniverse, een platform voor het bouwen van generatieve AI-compatibele 3D-applicaties.

NVIDIA GH200-aangedreven EC2-instances zullen beschikken over 4.5 TB HBM3e-geheugen. Dat is een stijging van 7.2x vergeleken met de huidige H100-aangedreven EC2 P5d-instanties. De CPU-naar-GPU-geheugenverbinding zal tot 7x hogere bandbreedte bieden dan PCIe, waardoor chip-naar-chip-communicatie mogelijk wordt die het totale beschikbare geheugen voor toepassingen vergroot.

AWS-instances met GH200 NVL32 zullen de eerste AI-infrastructuur op AWS zijn met vloeistofkoeling. Dit zal ertoe bijdragen dat dicht opeengepakte serverracks efficiënt en met maximale prestaties kunnen functioneren. EC2-instances met GH200 NVL32 zullen ook profiteren van het AWS Nitro-systeem, het onderliggende platform voor de volgende generatie EC2-instances. Nitro verplaatst de I/O voor functies van de host-CPU/GPU naar gespecialiseerde hardware, waardoor consistentere prestaties worden geleverd met verbeterde beveiliging om klantcode en gegevens tijdens de verwerking te beschermen.

NVIDIA-software op AWS stimuleert generatieve AI-ontwikkeling

In een andere baanbrekende aankondiging zal NVIDIA-software die op AWS draait de generatieve AI-ontwikkeling stimuleren. NVIDIA NeMo-retriever microservice zal tools bieden om nauwkeurige chatbots en samenvattingstools te creëren met behulp van versneld semantisch ophalen.

Farmaceutische bedrijven kunnen de ontdekking van geneesmiddelen versnellen met NVIDIA BioNeMo, dat beschikbaar is op Amazon SageMaker en naar DGX Cloud komt.

Door gebruik te maken van het NVIDIA NeMo-framework zal AWS geselecteerde Amazon Titan LLM's van de volgende generatie opleiden. Amazon Robotics gebruikt NVIDIA Omniverse Isaac om digitale tweelingen te bouwen voor het automatiseren, optimaliseren en plannen van autonome magazijnen in virtuele omgevingen voordat ze in de echte wereld worden geïmplementeerd.

NVIDIA DGX Cloud gehost op AWS: AI-training democratiseren

Een ander cruciaal aspect van deze samenwerking is het hosten van NVIDIA DGX Cloud op AWS. Deze AI-training-as-a-service zal de eerste zijn met de GH200 NVL32, waardoor ontwikkelaars in één keer kunnen beschikken over het grootste gedeelde geheugen. De DGX-wolk op AWS zal de training van geavanceerde generatieve AI en grote taalmodellen (LLM's) aanzienlijk versnellen, waarbij mogelijk meer dan 1 biljoen parameters worden bereikt. Deze dienst democratiseert de toegang tot hoogwaardige AI-trainingsbronnen, die voorheen alleen beschikbaar waren voor mensen met een aanzienlijke computerinfrastructuur.

Project Ceiba: Bouwen van 's werelds snelste GPU-aangedreven AI-supercomputer

In een ambitieuze stap werken AWS en NVIDIA samen aan Project Ceiba om 's werelds snelste GPU-aangedreven AI-supercomputer te bouwen. Dit systeem, met 16,384 NVIDIA GH200 Superchips en in staat om 65 exaflops aan AI te verwerken, zal door AWS worden gehost voor het onderzoeks- en ontwikkelingsteam van NVIDIA. De supercomputer zal de generatieve AI-innovatie van NVIDIA voortstuwen en gevolgen hebben voor gebieden als digitale biologie, robotica, autonome voertuigen en klimaatvoorspelling.

Een nieuw tijdperk van AI-ontwikkeling op AWS

Deze uitgebreide samenwerking tussen AWS en NVIDIA is meer dan alleen een technologische vooruitgang; het is een paradigmaverschuiving in cloudgebaseerde AI-computing. Door de geavanceerde AI-infrastructuur van NVIDIA en de cloudmogelijkheden van AWS te combineren, zal dit partnerschap een revolutie teweegbrengen in de manier waarop generatieve AI wordt ontwikkeld en ingezet in verschillende industrieën. Van farmaceutische producten tot autonome voertuigen: de implicaties van deze samenwerking zijn enorm en verreikend, en beloven nieuwe mogelijkheden op het gebied van AI en daarbuiten te ontsluiten.

NVIDIA

AWS

Neem contact op met StorageReview 

Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed