Startseite UnternehmenAI WEKA stellt NVIDIA-Integration und Augmented Memory Grid vor

WEKA stellt NVIDIA-Integration und Augmented Memory Grid vor

by Harold Fritts

Der Augmented Memory von WEKA für KI-Inferenz steigert die GPU-Effizienz, reduziert Latenz und Kosten und skaliert gleichzeitig KI-Modelle für Unternehmens-Workloads.

WEKA hat seine strategische Integration mit dem Referenzdesign der NVIDIA AI Data Platform bekannt gegeben. Das Unternehmen erhielt wichtige NVIDIA-Speicherzertifizierungen, um eine optimierte Infrastruktur bereitzustellen, die speziell auf agentenbasierte KI und komplexe Schlussfolgerungsmodelle zugeschnitten ist. Parallel dazu stellte WEKA seine innovative Augmented Memory Grid-Funktion und zusätzliche Zertifizierungen für NVIDIA Cloud Partner (NCP)-Referenzarchitekturen vor, darunter NVIDIA GB200 NVL72 und NVIDIA-Certified Systems Storage für KI-Fabrikimplementierungen im Unternehmensmaßstab.

Beschleunigung von KI-Agenten

Die NVIDIA AI Data Platform stellt einen bedeutenden Fortschritt in der KI-Infrastruktur von Unternehmen dar und integriert nahtlos die NVIDIA Blackwell-Architektur, NVIDIA BlueField DPUs, Spectrum-X-Netzwerke und die NVIDIA AI Enterprise-Software. Durch die Kombination dieser fortschrittlichen NVIDIA-Infrastruktur mit der WEKA Data Platform können Unternehmen eine massiv skalierbare Speicherbasis bereitstellen, die speziell für hochleistungsfähige KI-Inferenz-Workloads entwickelt wurde.

Diese integrierte Lösung adressiert direkt die wachsenden Anforderungen an Enterprise-KI und bietet KI-Abfrageagenten einen nahtlosen, beschleunigten Zugriff auf kritische Geschäftsinformationen. Dies führt zu einer deutlich verbesserten Inferenzleistung und Argumentationsgenauigkeit. Die Datenplattform von WEKA stellt sicher, dass KI-Systeme Daten schnell in verwertbare Informationen umwandeln und so das anspruchsvolle Denken unterstützen, das KI-Modelle der nächsten Generation benötigen.

WEKA Erweitertes Speicherraster

Agentische KI-Modelle entwickeln sich kontinuierlich weiter und können größere Kontextfenster, umfangreiche Parameterzahlen und einen höheren Speicherbedarf bewältigen. Diese Fortschritte stoßen oft an die Grenzen herkömmlicher GPU-Speicherkapazitäten und führen zu Engpässen bei der KI-Inferenz. WEKA begegnet diesen Herausforderungen mit seiner bahnbrechenden Augmented Memory Grid-Lösung. Diese Innovation erweitert den verfügbaren Speicher für KI-Workloads und ermöglicht Petabyte-Schritte – weit über die aktuellen Ein-Terabyte-Begrenzungen hinaus.

Erweiterter Speicher für KI-Inferenz – Augmented Memory Grid

Das Augmented Memory Grid von WEKA verbessert die KI-Inferenz erheblich, indem es die Datenplattform-Software von WEKA mit den beschleunigten Rechen- und Netzwerktechnologien von NVIDIA kombiniert. Diese Kombination ermöglicht einen Zugriff mit nahezu Speichergeschwindigkeit und einer Latenzzeit von Mikrosekunden, was die Token-Verarbeitungsleistung und die allgemeine Effizienz der KI-Inferenz deutlich verbessert.

Zu den wichtigsten Vorteilen des Augmented Memory Grid von WEKA gehören:

  • Deutlich reduzierte Latenz: In Tests mit 105,000 Token lieferte das Augmented Memory Grid von WEKA eine bemerkenswerte 41-fache Verbesserung der Zeit bis zum ersten Token im Vergleich zu herkömmlichen Neuberechnungsmethoden.

  • Optimierter Token-Durchsatz: Die Lösung von WEKA verarbeitet Inferenz-Workloads effizient über Cluster hinweg und erreicht einen höheren Token-Durchsatz bei geringeren Gesamtkosten. Dadurch werden die Kosten pro verarbeitetem Token systemweit um bis zu 24 % gesenkt.

Diese Leistungssteigerungen führen direkt zu einer verbesserten wirtschaftlichen Effizienz und ermöglichen es Unternehmen, KI-gesteuerte Innovationen zu beschleunigen, ohne die Modellfunktionen oder die Infrastrukturleistung zu beeinträchtigen.

WEKApod Nitro

WEKApod Nitro Data Platform-Geräte haben mehrere NVIDIA-Zertifizierungen erhalten, wodurch sich WEKA als führender Anbieter von Hochleistungsspeichern für Unternehmens-KI etabliert hat:

  • NVIDIA Cloud Partner (NCP)-ZertifizierungWEKApod Nitro gehört zu den ersten Speicherlösungen, die für NVIDIAs NCP-Referenzarchitekturen zertifiziert sind, darunter HGX H200, B200 und GB200 NVL72. Diese Geräte unterstützen Dienstanbieter und Entwickler durch die Unterstützung massiver GPU-Cluster – bis zu 1,152 GPUs in einer 8-HE-Konfiguration – und bieten gleichzeitig eine außergewöhnliche Leistungsdichte und Energieeffizienz.

  • NVIDIA-zertifizierte SystemspeicherbezeichnungWEKApod Nitro-Geräte haben die neue Enterprise-Storage-Zertifizierung von NVIDIA erhalten. Diese Zertifizierung gewährleistet die Kompatibilität mit NVIDIA Enterprise-Referenzarchitekturen und Best Practices. Diese Auszeichnung bestätigt, dass die WEKA-Datenplattform optimale Speicherleistung, Effizienz und Skalierbarkeit für anspruchsvolle KI- und HPC-Implementierungen in Unternehmen bietet.

Nilesh Patel, Chief Product Officer von WEKA, betonte das transformative Potenzial dieser Partnerschaft mit NVIDIA. Patel verglich diese Entwicklung mit Durchbrüchen in der Luft- und Raumfahrt und erklärte: „So wie das Durchbrechen der Schallmauer neue Grenzen erschlossen hat, durchbricht WEKAs Augmented Memory Grid die KI-Speicherbarriere, erweitert den GPU-Speicher drastisch und optimiert die Token-Effizienz. Diese Innovation verändert die KI-Token-Ökonomie grundlegend und ermöglicht schnellere Innovationen und niedrigere Kosten ohne Leistungseinbußen.“

Rob Davis, Vice President of Storage Networking Technology bei NVIDIA, betonte die Bedeutung dieser Integration: „Unternehmen, die agentenbasierte KI und Reasoning-Modelle einsetzen, benötigen beispiellose Effizienz und Skalierbarkeit. Die Kombination von NVIDIA- und WEKA-Technologien stellt sicher, dass KI-Agenten während der Inferenz mit unübertroffener Geschwindigkeit und Genauigkeit auf Daten zugreifen und diese verarbeiten können.“

Verfügbarkeit

  • Die NCP-Referenzarchitektur von WEKA für NVIDIA Blackwell-Systeme wird im März verfügbar sein.
  • Die WEKA Augmented Memory Grid-Funktion wird für Kunden der WEKA Data Platform im Frühjahr 2025 allgemein verfügbar sein.

Beteiligen Sie sich an StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed