Home Unternehmen NVIDIA GTC 2022 bietet Grafik-, Animations-, Leistungs- und KI-Innovationen

NVIDIA GTC 2022 bietet Grafik-, Animations-, Leistungs- und KI-Innovationen

by Harold Fritts

NVIDIA eröffnete die GTC 2022-Sitzung mit einer Keynote von CEO Jensen Huang, die voller beeindruckender Grafiken und Animationen war. Bei der Keynote war für jeden etwas dabei. Gamer erhalten eine neue GeForce RTX 40 GPU; beeindruckendes neuronales Rendering für Spiele und Anwendungen; NVIDIA Hopper geht in die Serienproduktion; Cloud-Dienste mit großen Sprachmodellen fördern die KI; Omniverse Cloud-Dienste; OVX-Computersysteme; eine GPU für Designer und Entwickler; Automobil erhalten DRIVE Thor; Jetson Orin Nano für KI der Einstiegsklasse; und IGX Edge AI Computing-Plattform.

NVIDIA eröffnete die GTC 2022-Sitzung mit einer Keynote von CEO Jensen Huang, die voller beeindruckender Grafiken und Animationen war. Bei der Keynote war für jeden etwas dabei. Gamer erhalten eine neue GeForce RTX 40 GPU; beeindruckendes neuronales Rendering für Spiele und Anwendungen; NVIDIA Hopper geht in die Serienproduktion; Cloud-Dienste mit großen Sprachmodellen fördern die KI; Omniverse Cloud-Dienste; OVX-Computersysteme; eine GPU für Designer und Entwickler; Automobil erhalten DRIVE Thor; Jetson Orin Nano für KI der Einstiegsklasse; und IGX Edge AI Computing-Plattform.

GeForce RTX 40

Als erstes auf der Tagesordnung stand die Ankündigung der GPUs der nächsten Generation der GeForce RTX 40-Serie mit ADA Lovelace-Technologie, die Gamern und Entwicklern extreme Leistung bieten sollen. Das neue Flaggschiffmodell, die RTX 4090 GPU, ist bis zu viermal so leistungsstark wie sein Vorgänger.

Die RTX 40-Serie ist die erste GPU, die auf der neuen NVIDIA Ada Lovelace-Architektur basiert. Sie liefert Leistungs- und Effizienzsprünge und stellt eine neue Ära des Echtzeit-Raytracings und des neuronalen Renderings dar, bei dem KI zur Generierung von Pixeln verwendet wird. Die GPUs der RTX 40-Serie verfügen über eine Reihe neuer technologischer Innovationen, darunter:

  • Streaming-Multiprozessoren mit bis zu 83 Teraflops Shader-Leistung – 2x im Vergleich zur vorherigen Generation.
  • RT-Cores der dritten Generation mit bis zu 191 effektiven Raytracing-Teraflops – 2.8x gegenüber der Vorgängergeneration.
  • Tensorkerne der vierten Generation mit bis zu 1.32 Tensor-Petaflops – 5x im Vergleich zur vorherigen Generation mit FP8-Beschleunigung.
  • Shader Execution Reordering (SER) verbessert die Ausführungseffizienz, indem Shading-Arbeitslasten im laufenden Betrieb neu geplant werden, um die GPU-Ressourcen besser zu nutzen. SER verbessert die Raytracing-Leistung um das bis zu Dreifache und die Bildraten im Spiel um bis zu 3 %.
  • Der Ada Optical Flow Accelerator mit doppelt so schneller Leistung ermöglicht es DLSS 2, Bewegungen in einer Szene vorherzusagen, wodurch das neuronale Netzwerk die Bildraten steigern und gleichzeitig die Bildqualität beibehalten kann.
  • Architekturverbesserungen in enger Verbindung mit der maßgeschneiderten TSMC 4N-Prozesstechnologie führen zu einem bis zu zweifachen Sprung in der Energieeffizienz.
  • Duale NVIDIA-Encoder (NVENC) verkürzen die Exportzeiten um bis zur Hälfte und bieten AV1-Unterstützung. Die NVENC AV1-Kodierung wird von OBS, Blackmagic Design, DaVinci Resolve, Discord und anderen übernommen.

DLSS 3 generiert ganze Frames für schnelleres Gameplay

Als nächstes kam NVIDIA DLSS 3, die nächste Revolution in der neuronalen Deep Learning Super Sampling-Grafiktechnologie des Unternehmens für Spiele und kreative Apps. Die KI-gestützte Technologie kann ganze Frames für extrem schnelles Gameplay generieren und überwindet CPU-Leistungsbeschränkungen in Spielen, indem sie es der GPU ermöglicht, ganze Frames unabhängig zu generieren.

Die Technologie kommt auf beliebte Spiele-Engines wie Unity und Unreal Engine und wird von führenden Spieleentwicklern unterstützt, so dass bald mehr als 35 Spiele und Apps verfügbar sein werden.

H100 Tensor-Core-GPU

Die NVIDIA H100 Tensor Core GPU ist in voller Produktion und Partner planen die Einführung der ersten Welle von Produkten und Diensten auf Basis der NVIDIA Hopper-Architektur im Oktober.

Der im März angekündigte H100 besteht aus 80 Milliarden Transistoren und profitiert von einer leistungsstarken neuen Transformer Engine und einer NVIDIA NVLink-Verbindung, um die größten KI-Modelle wie fortschrittliche Empfehlungssysteme und große Sprachmodelle zu beschleunigen und Innovationen in Bereichen wie … voranzutreiben Konversations-KI und Arzneimittelentwicklung.

Die H100-GPU basiert auf mehreren wichtigen Innovationen der beschleunigten Rechenzentrumsplattform von NVIDIA, darunter Multi-Instance-GPU der zweiten Generation, Confidential Computing, NVIDIA NVLink der vierten Generation und DPX-Anweisungen.

Eine Fünfjahreslizenz für die NVIDIA AI Enterprise-Software-Suite ist jetzt im H100 für Mainstream-Server enthalten. Dies optimiert die Entwicklung und Bereitstellung von KI-Workflows und stellt sicher, dass Unternehmen Zugriff auf die KI-Frameworks und -Tools haben, die zum Aufbau von KI-Chatbots, Empfehlungsmaschinen, Vision-KI und mehr erforderlich sind.

Kommen Sie zu einer Plattform in Ihrer Nähe

Für Kunden, die die neue Technologie sofort ausprobieren möchten, hat NVIDIA angekündigt, dass H100 auf Dell PowerEdge-Servern jetzt verfügbar ist NVIDIA LaunchPad, das kostenlose praktische Übungen bietet und Unternehmen Zugriff auf die neueste Hardware und NVIDIA AI-Software bietet.

Kunden können außerdem mit der Bestellung von NVIDIA DGX H100-Systemen beginnen, die acht H100-GPUs umfassen und eine Leistung von 32 Petaflops bei FP8-Präzision liefern. NVIDIA Base Command und NVIDIA AI Enterprise-Software unterstützen jedes DGX-System und ermöglichen Bereitstellungen von einem einzelnen Knoten auf einem NVIDIA DGX SuperPOD und unterstützen die fortschrittliche KI-Entwicklung großer Sprachmodelle und anderer massiver Arbeitslasten.

Zu den Partnern, die Systeme entwickeln, gehören Atos, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Lenovo und Supermicro.

Darüber hinaus werden einige der weltweit führenden Hochschulen und Forschungseinrichtungen H100 zur Stromversorgung ihrer Supercomputer der nächsten Generation nutzen. Zu ihnen gehören das Barcelona Supercomputing Center, das Los Alamos National Lab, das Swiss National Supercomputing Center (CSCS), das Texas Advanced Computing Center und die University of Tsukuba.

H100 kommt in die Cloud

Amazon Web Services, Google Cloud, Microsoft Azure und Oracle Cloud Infrastructure werden ab dem nächsten Jahr zu den ersten gehören, die H100-basierte Instanzen in der Cloud bereitstellen.

NVIDIA Large Language Model Cloud AI Services

NVIDIA NeMo Large Language Model Service und der NVIDIA BioNeMo LLM Service, Cloud-KI-Dienste für große Sprachmodelle, wurden angekündigt. Dieser neue LLM-Dienst ermöglicht es Entwicklern, LLMs einfach anzupassen und maßgeschneiderte KI-Anwendungen für die Inhaltsgenerierung, Textzusammenfassung, Chatbots, Codeentwicklung, Vorhersagen von Proteinstrukturen und biomolekularen Eigenschaften und mehr bereitzustellen.

Der NeMo LLM-Service ermöglicht Entwicklern die schnelle Anpassung einer Reihe vorab trainierter Basismodelle mithilfe einer Trainingsmethode namens „Prompt Learning“ auf einer von NVIDIA verwalteten Infrastruktur. Der NVIDIA BioNeMo Service ist eine Cloud-Anwendungsprogrammierschnittstelle (API), die LLM-Anwendungsfälle über sprachliche und wissenschaftliche Anwendungen hinaus erweitert, um die Arzneimittelforschung für Pharma- und Biotech-Unternehmen zu beschleunigen.

Omniversum

NVIDIA Omniverse Cloud ist das erste Software- und Infrastructure-as-a-Service-Angebot des Unternehmens. Omniverse ist eine Suite von Cloud-Diensten für Künstler, Entwickler und Unternehmensteams, um Metaverse-Anwendungen überall zu entwerfen, zu veröffentlichen, zu betreiben und zu erleben.

Mit Omniverse Cloud können Einzelpersonen und Teams mit einem Klick die Möglichkeit erleben, 3D-Workflows zu entwerfen und daran zusammenzuarbeiten, ohne dass lokale Rechenleistung erforderlich ist. Robotiker können KI-gestützte intelligente Maschinen mit erhöhter Skalierbarkeit und Zugänglichkeit trainieren, simulieren, testen und einsetzen. Ingenieure autonomer Fahrzeuge können physikalisch basierte Sensordaten generieren und Verkehrsszenarien simulieren, um verschiedene Straßen- und Wetterbedingungen für den sicheren Einsatz selbstfahrender Fahrzeuge zu testen.

Zu den ersten Unterstützern von Omniverse Cloud gehören RIMAC Group, WPP und Siemens.

Omniverse Cloud-Dienste

Omniverse Cloud-Dienste laufen auf dem Omniverse Cloud Computer, einem Computersystem bestehend aus NVIDIA OVX für Grafik- und Physiksimulation, NVIDIA HGX für erweiterte KI-Workloads und dem NVIDIA Graphics Delivery Network (GDN), einem weltweit verteilten Rechenzentrumsnetzwerk für die Bereitstellung Hochleistungs-Metaverse-Grafik mit geringer Latenz am Rande.

Zu den Omniverse Cloud-Diensten gehören:

  • Omniverse Nucleus Cloud – bietet 3D-Designern und -Teams die Freiheit, zusammenzuarbeiten und auf eine gemeinsame, auf Universal Scene Description (USD) basierende 3D-Szene und Daten zuzugreifen. Nucleus Cloud ermöglicht es jedem Designer, Ersteller oder Entwickler, von nahezu überall aus Änderungen zu speichern, zu teilen, Live-Bearbeitungen vorzunehmen und Änderungen in einer Szene anzuzeigen.
  • Omniverse App Streaming – ermöglicht Benutzern ohne NVIDIA RTX™-GPUs das Streamen von Omniverse-Referenzanwendungen wie Omniverse Create, einer App für Designer und Entwickler zum Erstellen USD-basierter virtueller Welten; Omniverse View, eine App für Bewertungen und Genehmigungen; und NVIDIA Isaac Sim zum Trainieren und Testen von Robotern.
  • Omniverse Replicator – ermöglicht es Forschern, Entwicklern und Unternehmen, physikalisch genaue synthetische 3D-Daten zu generieren und auf einfache Weise benutzerdefinierte Tools zur Generierung synthetischer Daten zu erstellen, um das Training und die Genauigkeit von Wahrnehmungsnetzwerken zu beschleunigen und sich einfach in NVIDIA AI Cloud-Dienste zu integrieren.
  • Omniverse Farm – ermöglicht Benutzern und Unternehmen die Nutzung mehrerer Cloud-Computing-Instanzen, um Omniverse-Aufgaben wie Rendering und synthetische Datengenerierung zu skalieren.
  • NVIDIA Isaac Sim – eine skalierbare Robotik-Simulationsanwendung und ein Tool zur Generierung synthetischer Daten, das fotorealistische, physikalisch genaue virtuelle Umgebungen zum Entwickeln, Testen und Verwalten von KI-basierten Robotern ermöglicht.
  • NVIDIA DRIVE Sim – eine End-to-End-Simulationsplattform zur Durchführung groß angelegter, physikalisch genauer Multisensorsimulationen, um die Entwicklung und Validierung autonomer Fahrzeuge vom Konzept bis zur Bereitstellung zu unterstützen, die Entwicklerproduktivität zu verbessern und die Markteinführungszeit zu verkürzen.

OVX-Computerdienste

NVIDIA kündigte die zweite Generation von NVIDIA OVX an, die auf der NVIDIA Ada Lovelace GPU-Architektur und verbesserter Netzwerktechnologie basiert und Echtzeit-Grafik-, KI- und Simulationsfunktionen für digitale Zwillinge bietet.

Die neuen NVIDIA OVX-Systeme sind darauf ausgelegt, virtuelle 3D-Welten mit führenden 3D-Softwareanwendungen zu erstellen und immersive Simulationen digitaler Zwillinge in NVIDIA Omniverse Enterprise durchzuführen, einer skalierbaren End-to-End-Plattform, die es Unternehmen ermöglicht, Metaverse-Anwendungen zu erstellen und zu betreiben.

NVIDIA OVX ist ein Computersystem, das für die Stromversorgung großer digitaler Omniverse-Zwillinge entwickelt wurde. Es wird an einige der weltweit anspruchsvollsten Design- und Ingenieurteams von Unternehmen wie der BMW Group und Jaguar Land Rover geliefert.

Die neuen OVX-Systeme werden von der NVIDIA L40-GPU angetrieben, die ebenfalls auf der NVIDIA Ada Lovelace-GPU-Architektur basiert und ein Höchstmaß an Leistung und Leistung für die Erstellung komplexer industrieller digitaler Zwillinge bietet.

Die RT-Kerne der dritten Generation und die Tensor-Kerne der vierten Generation der L40-GPU werden leistungsstarke Funktionen für Omniverse-Workloads bereitstellen, die auf OVX ausgeführt werden, einschließlich beschleunigter Raytracing- und Path-Trace-Rendering von Materialien, physikalisch präziser Simulationen und fotorealistischer 3D-Synthesedatengenerierung. Der L40 wird auch in NVIDIA-zertifizierten Systemservern großer OEM-Anbieter verfügbar sein, um RTX-Workloads aus dem Rechenzentrum zu betreiben.

NVIDIA OVX umfasst außerdem die NVIDIA ConnectX-7 SmartNIC, die eine verbesserte Netzwerk- und Speicherleistung sowie die präzise Timing-Synchronisierung bietet, die für naturgetreue digitale Zwillinge erforderlich ist. ConnectX-7 bietet Unterstützung für 200G-Netzwerke an jedem Port und eine schnelle Inline-Datenverschlüsselung, um die Datenbewegung zu beschleunigen und die Sicherheit digitaler Zwillinge zu erhöhen.

NVIDIA RTX 6000 Workstation-GPU

Die NVIDIA RTX 6000 Ada Generation GPU liefert Echtzeit-Rendering, Grafiken und KI. Designer und Ingenieure können erweiterte, simulationsbasierte Arbeitsabläufe steuern, um anspruchsvollere Designs zu erstellen und zu validieren. Künstler können das Geschichtenerzählen auf die nächste Ebene heben, fesselndere Inhalte erstellen und immersive virtuelle Umgebungen schaffen. Wissenschaftler, Forscher und medizinisches Fachpersonal können die Entwicklung lebensrettender Medikamente und Verfahren mit Supercomputing-Leistung auf ihren Workstations beschleunigen. Und das bei bis zu 2-4-facher Leistung als die RTX A6000 der vorherigen Generation.

Der RTX 6000 wurde für neuronale Grafiken und fortschrittliche virtuelle Weltsimulationen entwickelt und ist mit KI der Ada-Generation und programmierbarer Shader-Technologie die ideale Plattform für die Erstellung von Inhalten und Tools für das Metaversum mit NVIDIA Omniverse Enterprise. Mit der RTX 6000 können Benutzer detaillierte Inhalte erstellen, komplexe Simulationen entwickeln und die Bausteine ​​bilden, die zum Aufbau fesselnder und ansprechender virtueller Welten erforderlich sind.

RTX-Technologie der nächsten Generation

Basierend auf der NVIDIA Ada-Architektur verfügt die NVIDIA RTX 6000 über modernste NVIDIA RTX-Technologie mit Funktionen wie:

  • RT-Kerne der dritten Generation: Bis zu doppelt so hoher Durchsatz wie bei der Vorgängergeneration mit der Möglichkeit, gleichzeitig Raytracing mit Shading- oder Rauschunterdrückungsfunktionen auszuführen.
  • Tensorkerne der vierten Generation: Bis zu 2x schnellere KI-Trainingsleistung als die vorherige Generation mit erweiterter Unterstützung für das FP8-Datenformat.
  • CUDA-Kerne: Bis zu 2-facher Gleitkomma-Durchsatz mit einfacher Genauigkeit im Vergleich zur vorherigen Generation.
  • GPU-Speicher: Verfügt über 48 GB GDDR6-Speicher für die Arbeit mit den größten 3D-Modellen, Renderbildern, Simulationen und KI-Datensätzen.
  • Virtualisierung: Unterstützt NVIDIA Virtual GPU (vGPU)-Software für mehrere leistungsstarke virtuelle Workstation-Instanzen, sodass Remote-Benutzer Ressourcen gemeinsam nutzen und High-End-Design-, KI- und Rechen-Workloads vorantreiben können.
  • XR: Bietet die dreifache Videokodierungsleistung der vorherigen Generation zum Streamen mehrerer gleichzeitiger XR-Sitzungen mit NVIDIA CloudXR.

NVIDIA-LAUFWERK Orin

Die Produktion des autonomen Fahrzeugcomputers NVIDIA DRIVE Orin beginnt, präsentiert neue Automobilhersteller, die die NVIDIA DRIVE™-Plattform übernehmen, und stellt die nächste Generation seiner NVIDIA DRIVE Hyperion-Architektur vor. NVIDIA gab außerdem bekannt, dass seine Automobilpipeline in den nächsten sechs Jahren nach einer Reihe von Design-Wills mit Fahrzeugherstellern aus der ganzen Welt auf über 11 Milliarden US-Dollar angewachsen ist.

Mehr als 25 Fahrzeughersteller haben das NVIDIA DRIVE Orin System-on-a-Chip (SoC) übernommen. Ab diesem Jahr führen sie softwaredefinierte Fahrzeuge ein, die auf der zentralisierten KI-Rechenplattform basieren.

DRIVE Hyperion mit NVIDIA Orin dient als zentrales Nervensystem und KI-Gehirn für Fahrzeuge mit neuer Energie, liefert ständig verbesserte, hochmoderne KI-Funktionen und sorgt gleichzeitig für sichere Fahrfähigkeiten.

Außerdem wurde die nächste Generation der DRIVE Hyperion-Architektur angekündigt, die auf dem Atlan-Computer basiert und für Fahrzeuge vorgesehen ist, die ab 2026 ausgeliefert werden. Die DRIVE Hyperion-Plattform ist für die Skalierung über Generationen hinweg konzipiert, sodass Kunden aktuelle Investitionen für zukünftige Architekturen nutzen können.

Die Plattform der nächsten Generation wird die Leistung bei der Verarbeitung von Sensordaten steigern und die Einsatzbereiche des vollständig autonomen Fahrens erweitern. DRIVE Hyperion 9 wird als Teil seiner Sensorsuite über 14 Kameras, neun Radargeräte, drei Lidars und 20 Ultraschallgeräte verfügen.

NVIDIA-LAUFWERK Thor

NVIDIA DRIVE Thor ist der Zentralcomputer der nächsten Generation für sichere autonome Fahrzeuge. DRIVE Thor erreicht bis zu 2,000 Teraflops und vereint intelligente Funktionen, darunter automatisiertes und unterstütztes Fahren, Parken, Fahrer- und Insassenüberwachung, digitales Kombiinstrument, In-Vehicle Infotainment (IVI) und Rear-Seat-Entertainment, in einer einzigen Architektur für mehr Effizienz und geringere Gesamtsystemkosten.

Der Superchip der nächsten Generation ist vollgepackt mit den hochmodernen KI-Funktionen, die erstmals in der NVIDIA Hopper Multi-Instance GPU-Architektur eingeführt wurden, zusammen mit der NVIDIA Grace CPU und der NVIDIA Ada Lovelace GPU. DRIVE Thor mit MIG-Unterstützung für Grafik und Rechenleistung ermöglicht IVI und fortschrittlichen Fahrerassistenzsystemen die Ausführung einer Domänenisolation, wodurch gleichzeitig zeitkritische Prozesse ohne Unterbrechung ausgeführt werden können. Es ist für die Modelle 2025 der Automobilhersteller verfügbar und wird die Produktionspläne beschleunigen, indem es im gleichen Zeitrahmen höhere Leistung und erweiterte Funktionen auf den Markt bringt.

NVIDIA Jetson Orin Nano

NVIDIA kündigte die Erweiterung der NVIDIA Jetson-Reihe mit der Einführung der neuen Jetson Orin Nano System-on-Modules an, die bis zu 80-mal mehr Leistung als die Vorgängergeneration bieten und damit einen neuen Standard für Edge-KI und Robotik der Einstiegsklasse setzen.

Die NVIDIA Jetson-Familie umfasst jetzt sechs Orin-basierte Produktionsmodule, die eine vollständige Palette von Edge-KI- und Robotikanwendungen unterstützen. Dazu gehören der Orin Nano, der bis zu 40 Billionen Operationen pro Sekunde (TOPS) KI-Leistung im kleinsten Jetson-Formfaktor liefert, bis hin zum AGX Orin, der 275 TOPS für fortschrittliche autonome Maschinen liefert.

Jetson Orin verfügt über eine GPU mit NVIDIA-Ampere-Architektur, Arm-basierte CPUs, Deep-Learning- und Vision-Beschleuniger der nächsten Generation, Hochgeschwindigkeitsschnittstellen, schnelle Speicherbandbreite und Unterstützung für multimodale Sensoren. Diese Leistung und Vielseitigkeit ermöglichen es mehr Kunden, Produkte zu kommerzialisieren, die früher unmöglich schienen, von Ingenieuren, die hochmoderne KI-Anwendungen bereitstellen, bis hin zu Entwicklern von Robotics Operating System (ROS), die intelligente Maschinen der nächsten Generation bauen.

NVIDIA IGX Edge AI

Die NVIDIA IGX-Plattform wurde heute angekündigt. IGX wird für hochpräzise Edge-KI verwendet und bietet erweiterte Sicherheit und proaktive Sicherheit für sensible Branchen wie Fertigung, Logistik und Gesundheitswesen. In der Vergangenheit erforderten solche Branchen kostspielige Lösungen, die speziell für bestimmte Anwendungsfälle entwickelt wurden. Die IGX-Plattform ist jedoch leicht programmierbar und konfigurierbar, um unterschiedlichen Anforderungen gerecht zu werden.

IGX bietet eine zusätzliche Sicherheitsebene in stark regulierten physischen Fabriken und Lagern für Fertigung und Logistik. Für medizinische Edge-KI-Anwendungsfälle liefert IGX sichere KI-Inferenz mit geringer Latenz, um den klinischen Bedarf an sofortigen Erkenntnissen aus verschiedenen Instrumenten und Sensoren für medizinische Verfahren wie robotergestützte Chirurgie und Patientenüberwachung zu decken.

NVIDIA IGX-Plattform – Gewährleistung der Compliance in Edge AI

Die NVIDIA IGX-Plattform ist eine leistungsstarke Kombination aus Hardware und Software, die NVIDIA IGX Orin umfasst, einen leistungsstarken, kompakten und energieeffizienten KI-Supercomputer für autonome Industriemaschinen und medizinische Geräte.

IGX Orin-Entwicklerkits werden Anfang nächsten Jahres für Unternehmen zum Prototypenbau und Testen von Produkten verfügbar sein. Jedes Kit verfügt über eine integrierte GPU und CPU für leistungsstarkes KI-Computing und eine NVIDIA ConnectX-7 SmartNIC für leistungsstarke Netzwerke mit extrem geringer Latenz und erweiterter Sicherheit.

Ebenfalls enthalten ist ein leistungsstarker Software-Stack mit wichtigen Sicherheitsfunktionen, der für verschiedene Anwendungsfälle programmiert und konfiguriert werden kann. Diese Funktionen ermöglichen es Unternehmen, proaktive Sicherheit in Umgebungen zu schaffen, in denen Menschen und Roboter Seite an Seite arbeiten, beispielsweise in Lagerhallen und Operationssälen.

Auf der IGX-Plattform kann NVIDIA AI Enterprise-Software ausgeführt werden, wodurch die Entwicklung und Bereitstellung von KI-Workflows optimiert und sichergestellt wird, dass Unternehmen Zugriff auf die erforderlichen KI-Frameworks und -Tools haben. NVIDIA arbeitet außerdem mit Betriebssystempartnern wie Canonical, Red Hat und SUSE zusammen, um umfassende und langfristige Unterstützung für die Plattform bereitzustellen.

Für die Verwaltung von IGX in industriellen und medizinischen Umgebungen ermöglicht NVIDIA Fleet Command Unternehmen die Bereitstellung sicherer Over-the-Air-Software- und Systemaktualisierungen über eine zentrale Cloud-Konsole.

Klicken Sie auf den Link, um die ganze Geschichte zu lesen AGB 2022 Keynote.

Beteiligen Sie sich an StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed