Während der AWS re:Invent-Keynote kündigten AWS und NVIDIA eine bedeutende Entwicklung für künstliche Intelligenz (KI) an. AWS-CEO Adam Selipsky lud NVIDIA-CEO Jensen Huang auf die Bühne ein, um die strategischen Kooperationsbemühungen der beiden Unternehmen näher zu erläutern. Diese Partnerschaft soll die fortschrittlichste Infrastruktur, Software und Dienste bereitstellen und generative KI-Innovationen vorantreiben. Die Zusammenarbeit ist eine Mischung aus der Spitzentechnologie von NVIDIA und der robusten Cloud-Infrastruktur von AWS und markiert eine neue Ära in der KI-Entwicklung.
Während der AWS re:Invent-Keynote kündigten AWS und NVIDIA eine bedeutende Entwicklung für künstliche Intelligenz (KI) an. AWS-CEO Adam Selipsky lud NVIDIA-CEO Jensen Huang auf die Bühne ein, um die strategischen Kooperationsbemühungen der beiden Unternehmen näher zu erläutern. Diese Partnerschaft soll die fortschrittlichste Infrastruktur, Software und Dienste bereitstellen und generative KI-Innovationen vorantreiben. Die Zusammenarbeit ist eine Mischung aus der Spitzentechnologie von NVIDIA und der robusten Cloud-Infrastruktur von AWS und markiert eine neue Ära in der KI-Entwicklung.
Revolutionierung der Cloud-KI mit NVIDIA GH200 Grace Hopper Superchips
Ein Eckpfeiler dieser Zusammenarbeit ist die Einführung von NVIDIA durch AWS GH200 Grace Hopper Superchips in die Cloud, eine Premiere unter den Cloud-Anbietern. Diese Superchips stellen einen bedeutenden Sprung im cloudbasierten KI-Computing dar. Die Multi-Node-Plattform GH200 NVL32, die 32 Grace Hopper Superchips mithilfe der NVIDIA NVLink- und NVSwitch-Technologien verbindet, wird in Amazon EC2-Instanzen integriert. Diese neuen Amazon EC2-Instanzen sind für verschiedene KI-, HPC- und Grafik-Workloads geeignet.
Jeder GH200-Superchip kombiniert eine Arm-basierte Grace-CPU mit einer NVIDIA-Hopper-Architektur-GPU auf demselben Modul, sodass eine einzelne EC2-Instanz bis zu 20 TB gemeinsamen Speicher für Arbeitslasten im Terabyte-Bereich bereitstellen kann. Dieser Aufbau ermöglicht es gemeinsamen Kunden, auf Tausende von GH200-Superchips zu skalieren, die beispiellose Rechenleistung für KI-Forschung und -Anwendungen bieten.
Generative KI, HPC, Design und Simulation auf Hochtouren bringen
AWS stellt drei neue EC2-Instanzen vor: die P5e-Instanzen, powered by NVIDIA H200 Tensor Core-GPUssind für umfangreiche und hochmoderne generative KI- und HPC-Workloads konzipiert. Die G6- und G6e-Instanzen mit NVIDIA L4- bzw. L40S-GPUs eignen sich für KI-Feinabstimmung, Inferenz, Grafik- und Video-Workloads. Die G6e-Instanzen eignen sich besonders für die Entwicklung von 3D-Workflows, digitalen Zwillingen und Anwendungen mit NVIDIA Omniverse, einer Plattform zur Erstellung generativer KI-fähiger 3D-Anwendungen.
NVIDIA GH200-basierte EC2-Instanzen verfügen über 4.5 TB HBM3e-Speicher. Das ist eine 7.2-fache Steigerung im Vergleich zu aktuellen H100-basierten EC2 P5d-Instanzen. Die CPU-zu-GPU-Speicherverbindung bietet eine bis zu 7-mal höhere Bandbreite als PCIe und ermöglicht so eine Chip-zu-Chip-Kommunikation, die den für Anwendungen verfügbaren Gesamtspeicher erweitert.
AWS-Instanzen mit GH200 NVL32 werden die erste KI-Infrastruktur auf AWS sein, die über Flüssigkeitskühlung verfügt. Dadurch wird sichergestellt, dass dicht gepackte Server-Racks effizient und mit maximaler Leistung arbeiten. EC2-Instanzen mit GH200 NVL32 profitieren auch vom AWS Nitro System, der zugrunde liegenden Plattform für EC2-Instanzen der nächsten Generation. Nitro verlagert E/A für Funktionen von der Host-CPU/GPU auf spezielle Hardware und bietet so eine konsistentere Leistung mit erhöhter Sicherheit zum Schutz von Kundencode und -daten während der Verarbeitung.
NVIDIA-Software auf AWS fördert die generative KI-Entwicklung
In einer weiteren bahnbrechenden Ankündigung wird NVIDIA-Software, die auf AWS läuft, die generative KI-Entwicklung vorantreiben. NVIDIA NeMo Retriever Microservice wird Tools zur Erstellung präziser Chatbots und Zusammenfassungstools mit beschleunigtem semantischem Abruf anbieten.
Pharmaunternehmen können die Arzneimittelforschung mit NVIDIA BioNeMo beschleunigen, das auf Amazon SageMaker verfügbar ist und in die DGX Cloud kommt.
Unter Nutzung des NVIDIA NeMo-Frameworks wird AWS ausgewählte Amazon Titan LLMs der nächsten Generation schulen. Amazon Robotics nutzt NVIDIA Omniverse Isaac, um digitale Zwillinge für die Automatisierung, Optimierung und Planung autonomer Lager in virtuellen Umgebungen vor dem Einsatz in der realen Welt zu erstellen.
NVIDIA DGX Cloud gehostet auf AWS: Demokratisierung des KI-Trainings
Ein weiterer zentraler Aspekt dieser Partnerschaft ist das Hosten der NVIDIA DGX Cloud auf AWS. Dieses KI-Training-as-a-Service wird das erste sein, das über den GH200 NVL32 verfügt und Entwicklern den größten gemeinsamen Speicher in einer einzigen Instanz bietet. Der DGX-Cloud auf AWS wird das Training hochmoderner generativer KI und großer Sprachmodelle (LLMs) erheblich beschleunigen und möglicherweise mehr als eine Billion Parameter erreichen. Dieser Dienst demokratisiert den Zugang zu hochwertigen KI-Schulungsressourcen, die bisher nur Personen mit einer umfangreichen Computerinfrastruktur zur Verfügung standen.
Projekt Ceiba: Bau des weltweit schnellsten GPU-gestützten KI-Supercomputers
In einem ehrgeizigen Schritt arbeiten AWS und NVIDIA im Projekt Ceiba zusammen, um den weltweit schnellsten GPU-gestützten KI-Supercomputer zu bauen. Dieses System verfügt über 16,384 NVIDIA GH200-Superchips und kann 65 Exaflops KI verarbeiten. Es wird von AWS für das Forschungs- und Entwicklungsteam von NVIDIA gehostet. Der Supercomputer wird die generative KI-Innovation von NVIDIA vorantreiben und sich auf Bereiche wie digitale Biologie, Robotik, autonome Fahrzeuge und Klimavorhersage auswirken.
Eine neue Ära der KI-Entwicklung auf AWS
Diese erweiterte Zusammenarbeit zwischen AWS und NVIDIA ist mehr als nur ein technologischer Fortschritt; Es handelt sich um einen Paradigmenwechsel im Cloud-basierten KI-Computing. Durch die Kombination der fortschrittlichen KI-Infrastruktur von NVIDIA und der Cloud-Funktionen von AWS soll diese Partnerschaft die Entwicklung und Bereitstellung generativer KI in verschiedenen Branchen revolutionieren. Von Pharmazeutika bis hin zu autonomen Fahrzeugen – die Auswirkungen dieser Zusammenarbeit sind enorm und weitreichend und versprechen, neue Möglichkeiten in der KI und darüber hinaus zu erschließen.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed