Startseite UnternehmenAI Hewlett Packard Enterprise und NVIDIA kündigen gemeinsam entwickelte KI-Lösungen an

Hewlett Packard Enterprise und NVIDIA kündigen gemeinsam entwickelte KI-Lösungen an

by Jordan Ranous

Hewlett Packard Enterprise (HPE) und NVIDIA haben NVIDIA AI Computing by HPE vorgestellt, ein Portfolio gemeinsam entwickelter KI-Lösungen, die die Einführung generativer KI in Unternehmen beschleunigen sollen. Dieses Portfolio umfasst mehrere integrierte Angebote und Dienste, die es Unternehmen jeder Größe ermöglichen, KI-Anwendungen effizient zu entwickeln und einzusetzen.

Hewlett Packard Enterprise (HPE) und NVIDIA haben NVIDIA AI Computing by HPE vorgestellt, ein Portfolio gemeinsam entwickelter KI-Lösungen, die die Einführung generativer KI in Unternehmen beschleunigen sollen. Dieses Portfolio umfasst mehrere integrierte Angebote und Dienste, die es Unternehmen jeder Größe ermöglichen, KI-Anwendungen effizient zu entwickeln und einzusetzen.

Während der HPE Discover-Keynote gab es viel zu verkünden. HPE-Präsident und CEO Antonio Neri wurde auf der Bühne von NVIDIA-Gründer und CEO Jensen Huang begleitet, um diese Initiative hervorzuheben, die den Ausbau einer jahrzehntelangen Partnerschaft markiert.

Neri betonte, dass generative KI ein enormes Potenzial für die Transformation von Unternehmen birgt, die Komplexität fragmentierter KI-Technologie jedoch Risiken und Hindernisse für eine großflächige Einführung mit sich bringt. Um diese Herausforderungen zu bewältigen, haben HPE und NVIDIA gemeinsam eine schlüsselfertige private Cloud für KI entwickelt, die es Unternehmen ermöglicht, ihre Ressourcen auf die Entwicklung neuer KI-Anwendungsfälle zu konzentrieren, die die Produktivität steigern und neue Einnahmequellen erschließen. Huang betonte, dass die Integration von NVIDIA- und HPE-Technologien Unternehmenskunden und KI-Experten mit der fortschrittlichsten Computerinfrastruktur und den modernsten Diensten ausstattet, um die Grenzen der KI zu erweitern.

Wichtige Angebote und Funktionen

HPE Private Cloud AI: Zu den wichtigsten Angeboten des Portfolios gehört HPE Private Cloud AI, eine einzigartige Lösung, die NVIDIA AI-Computing, -Netzwerke und -Software eng mit HPEs AI-Speicher, -Computing und der HPE GreenLake-Cloud integriert. Diese Lösung bietet Unternehmen einen energieeffizienten, schnellen und flexiblen Weg zur nachhaltigen Entwicklung und Bereitstellung generativer KI-Anwendungen. Sie wird vom neuen OpsRamp AI Copilot unterstützt, der dem IT-Betrieb hilft, die Arbeitslast und die IT-Effizienz zu verbessern. HPE Private Cloud AI umfasst ein Self-Service-Cloud-Erlebnis mit vollständigem Lebenszyklusmanagement und ist in vier passenden Konfigurationen erhältlich, um eine breite Palette von KI-Workloads und Anwendungsfällen zu unterstützen.

Gemeinsame Go-to-Market-Strategie: Alle Angebote und Services von NVIDIA AI Computing by HPE werden über eine gemeinsame Markteinführungsstrategie verfügbar sein. Diese Strategie umfasst Vertriebsteams und Vertriebspartner, Schulungen und ein globales Netzwerk von Systemintegratoren. Zu diesen Integratoren gehören Deloitte, HCLTech, Infosys, TCS und Wipro, die Unternehmen in verschiedenen Branchen dabei helfen können, komplexe KI-Workloads auszuführen.

Gemeinsam entwickeltes Private Cloud-KI-Portfolio

HPE Private Cloud AI bietet eine einzigartige, Cloud-basierte Erfahrung, um Innovation und Kapitalrendite zu beschleunigen und gleichzeitig das Unternehmensrisiko durch KI zu verwalten. Diese Lösung unterstützt Inferenz, Feinabstimmung und Retrieval-Augmented Generation (RAG) KI-Workloads, die proprietäre Daten verwenden. Sie gewährleistet die Kontrolle des Unternehmens über Datenschutz, Sicherheit, Transparenz und Governance-Anforderungen. Darüber hinaus bietet sie eine Cloud-Erfahrung mit IT-Betriebs- (ITOps) und künstlichen Intelligenzbetriebsfunktionen (AIOps) zur Steigerung der Produktivität. HPE Private Cloud AI bietet einen schnellen Weg zur flexiblen Nutzung, um zukünftige KI-Chancen und Wachstum zu nutzen.

Die Grundlage des KI- und Datensoftware-Stacks bildet die NVIDIA AI Enterprise-Softwareplattform, die NVIDIA NIM-Inferenzmikroservices umfasst. Diese Plattform beschleunigt Data Science-Pipelines und optimiert die Entwicklung und Bereitstellung von Copiloten in Produktionsqualität und anderen generativen KI-Anwendungen. NVIDIA NIM bietet benutzerfreundliche Mikroservices für optimierte KI-Modellinferenz und ermöglicht einen reibungslosen Übergang vom Prototyp zur sicheren Bereitstellung von KI-Modellen in verschiedenen Anwendungsfällen. Als Ergänzung zu NVIDIA AI Enterprise und NVIDIA NIM bietet die HPE AI Essentials-Software einen betriebsbereiten Satz kuratierter KI- und Datengrundlagentools mit einer einheitlichen Steuerungsebene. Diese Software bietet anpassbare Lösungen, fortlaufenden Unternehmenssupport und vertrauenswürdige KI-Dienste und stellt sicher, dass KI-Pipelines während des gesamten KI-Lebenszyklus konform, erklärbar und reproduzierbar sind.

Integrierte KI-Infrastruktur

HPE Private Cloud AI umfasst einen vollständig integrierten KI-Infrastruktur-Stack mit NVIDIA Spectrum-X Ethernet-Netzwerken, HPE GreenLake für Dateispeicher und HPE ProLiant-Servern. Diese Server unterstützen NVIDIA L40S, NVIDIA H100 NVL Tensor Core GPUs und die NVIDIA GH200 NVL2-Plattform und bieten optimale Leistung für den KI- und Datensoftware-Stack.

Cloud-Erlebnis ermöglicht durch HPE GreenLake Cloud

HPE Private Cloud AI bietet ein Self-Service-Cloud-Erlebnis, das durch HPE GreenLake Cloud ermöglicht wird. Über eine einzige, plattformbasierte Steuerungsebene bieten HPE GreenLake Cloud-Dienste Verwaltbarkeit und Beobachtbarkeit, um Endpunkte, Workloads und Daten in hybriden Umgebungen zu automatisieren, zu orchestrieren und zu verwalten. Dazu gehören Nachhaltigkeitsmetriken für Workloads und Endpunkte.

Die Integration der IT-Operationen von OpsRamp in die HPE GreenLake-Cloud ermöglicht Observability und AIOps für alle HPE-Produkte und -Dienste. OpsRamp bietet Observability für den End-to-End-Stack von NVIDIA Accelerated Computing, einschließlich NVIDIA NIM- und KI-Software, NVIDIA Tensor Core GPUs und KI-Clustern sowie NVIDIA Quantum InfiniBand- und NVIDIA Spectrum Ethernet-Switches. IT-Administratoren können Einblicke gewinnen, um Anomalien zu identifizieren und ihre KI-Infrastruktur und Workloads in hybriden Multi-Cloud-Umgebungen zu überwachen.

Der neue OpsRamp Operations Copilot nutzt die beschleunigte Computing-Plattform von NVIDIA, um mithilfe eines Konversationsassistenten große Datensätze zu analysieren und Erkenntnisse zu gewinnen. Dies steigert die Produktivität des Betriebsmanagements. OpsRamp lässt sich außerdem in CrowdStrike-APIs integrieren, sodass Kunden eine einheitliche Service-Map-Ansicht der Endpunktsicherheit für ihre gesamte Infrastruktur und Anwendungen erhalten.

Zusammenarbeit mit globalen Systemintegratoren

Um die Wertschöpfungszeit von Unternehmen zu verkürzen, unterstützen Deloitte, HCLTech, Infosys, TCS und Wipro das NVIDIA AI Computing by HPE-Portfolio und HPE Private Cloud AI. Diese globalen Systemintegratoren helfen Unternehmen bei der Entwicklung branchenspezifischer KI-Lösungen und Anwendungsfälle mit klaren Geschäftsvorteilen.

Unterstützung für die neuesten Technologien von NVIDIA

HPE wird die neuesten GPUs, CPUs und Superchips von NVIDIA unterstützen. Der HPE Cray XD670 unterstützt acht NVIDIA H200 NVL Tensor Core-GPUs und ist ideal für Entwickler großer Sprachmodelle (LLM). Der HPE ProLiant DL384 Gen12-Server mit zwei NVIDIA GH200 NVL2 ist ideal für LLM-Verbraucher, die größere Modelle oder Retrieval-Augmented Generation (RAG) verwenden. Der HPE ProLiant DL380a Gen12-Server unterstützt bis zu acht NVIDIA H200 NVL Tensor Core GPUs und bietet Flexibilität zum Skalieren generativer KI-Workloads.

HPE hat keine Systeme vom Typ NVL72 oder Blackwell vorgeführt, hat aber erklärt, dass sie „zeitnah auf den Markt“ kommen werden, um NVIDIA GB200 NVL72/NVL2 zu unterstützen, einschließlich der Architekturen NVIDIA Blackwell, NVIDIA Rubin und NVIDIA Vera.

HPE Cray XD670

Dateispeicher mit hoher Dichte

HPE GreenLake für File Storage hat die NVIDIA DGX BasePOD-Zertifizierung und die NVIDIA OVX-Speichervalidierung erhalten und bietet eine bewährte Enterprise-Dateispeicherlösung für KI, generative KI und GPU-intensive Workloads im großen Maßstab. HPE wird bei den kommenden NVIDIA-Referenzarchitektur-Speicherzertifizierungsprogrammen rechtzeitig auf den Markt kommen.

Verfügbarkeit

HPE Private Cloud AI wird voraussichtlich im Herbst allgemein verfügbar sein. Der HPE ProLiant DL380a Gen12-Server mit NVIDIA H200 NVL Tensor Core GPUs wird voraussichtlich im Herbst allgemein verfügbar sein. Der HPE ProLiant DL384 Gen12-Server mit Dual NVIDIA GH200 NVL2 wird voraussichtlich im Herbst allgemein verfügbar sein. Der HPE Cray XD670-Server mit NVIDIA H200 NVL wird voraussichtlich im Sommer allgemein verfügbar sein.

Diese Zusammenarbeit zwischen HPE und NVIDIA bedeutet eine Erweiterung ihrer umfassenden Partnerschaft. Ziel dieser Initiative ist es, Unternehmen mit der fortschrittlichsten Computerinfrastruktur und den modernsten Diensten auszustatten, um die Grenzen der KI zu erweitern.

Beteiligen Sie sich an StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed