Dell Technologies hat Unterstützung für standardisierte KI-Lösungen angekündigt, die für das Llama-Ökosystem optimiert sind.
Dell Technologies hat Unterstützung für standardisierte KI-Lösungen angekündigt, die für das Llama-Ökosystem optimiert sind. Diese Lösungen zielen darauf ab, die Entwicklung von KI-Anwendungen zu vereinfachen und die Fähigkeiten agentenbasierter Workflows zu verbessern.
Verbesserung von KI-Anwendungen mit agentenbasierten Workflows
Dell AI Solutions mit Llama-Ökosystem sind darauf ausgelegt, die Entwicklererfahrung zu vereinfachen und die Effizienz von KI-Anwendungen zu verbessern. Llama Stack, ein standardisiertes Software-Framework, unterstützt mehrere Phasen der KI-Entwicklung, darunter Modelltraining, Feinabstimmung und Produktionsbereitstellung. Es lässt sich jetzt eng in PyTorch-Bibliotheken integrieren und ermöglicht so die nahtlose Bereitstellung von Retrieval-Augmented Generation (RAG) und anderen KI-Anwendungen.
Durch die Kombination von Llama Stack mit Dell AI Factory können Unternehmen eine Infrastruktur der Enterprise-Klasse nutzen, unterstützt durch Dell PowerEdge XE9680 Server mit NVIDIA H100 GPUs. Diese Referenzarchitektur bietet Skalierbarkeit und Leistung und erleichtert so die Entwicklung agentenbasierter KI-Anwendungen.
Die Architektur bietet standardisierte APIs, die die Entwicklung vereinfachen, indem sie die Wiederverwendung von Code fördern und Plug-and-Play-Funktionen für aktuelle und zukünftige Llama-Modelle ermöglichen. Die sichere Bereitstellung mit integrierten Sicherheitsfunktionen gewährleistet, dass KI-Anwendungen kompatibel und geschützt sind. Die anpassbare Infrastruktur von Dell unterstützt verschiedene KI-Anwendungsfälle, von der Einzelknoten-Inferenz bis hin zu Bereitstellungen mit mehreren Knoten.
Diese Funktionen ermöglichen es Unternehmen, Workflows zu implementieren, bei denen mehrere Modelle und Speicherbänke zusammenarbeiten, um komplexe geschäftliche Herausforderungen zu lösen. Die in Llama Stack integrierte Referenzarchitektur optimiert die Ausführung von Aufgaben wie Inferenz, RAG und synthetische Datengenerierung, während Llama Guard-Modelle Sicherheitsmaßnahmen und Leitplanken für mehr Sicherheit festlegen.
Datenwissenschaftler und Entwickler befähigen
Die Entwicklung von KI-Anwendungen ist mit Herausforderungen verbunden, darunter hohe Kosten, Bedenken hinsichtlich der Skalierbarkeit und Schwierigkeiten bei der Sicherung der erforderlichen Ressourcen. Die Auswahl der richtigen Architektur sowie die Integration und Wartung von KI-Systemen sind von entscheidender Bedeutung. Dells KI-Lösungen mit Llama sollen diese Herausforderungen lindern und Datenwissenschaftlern, Entwicklern und IT-Entscheidungsträgern zugutekommen.
Die Referenzarchitektur bietet detaillierte Richtlinien für die Bereitstellung von Llama-Modellen auf PowerEdge XE9680-Servern mit validierten Arbeitsabläufen und Beispielcode zur Beschleunigung der Entwicklung.
Die validierten Konfigurationen der Dell AI Factory optimieren die Installation von KI-Lösungen in Rechenzentren, bieten Skalierbarkeit über mehrere Knoten hinweg und werden durch benutzerdefinierte Bereitstellungsdienste unterstützt.
Die Dell AI Solutions mit Llama ermöglichen Entwicklern die schnelle Einführung neuer KI-Modelle, -Tools und -Frameworks mithilfe standardisierter Bausteine und stellen so portablen Code in verschiedenen Umgebungen sicher. Sie vereinfachen Datenpipelines durch die Dell Data Lakehouse- und PowerScale-Plattformen. Darüber hinaus sind Llama-Modelle über die Hugging Face-Plattform auf Dells Enterprise Hub verfügbar. Diese Modelle sind vorgefertigte, einsatzbereite Container und Skripte für eine sichere und effiziente Bereitstellung.
Dell bietet außerdem Dienste für die Bereitstellung von Llama-Modellen, die Unterstützung von Strategien, die Datenaufbereitung, die Modellimplementierung und generative KI-Ergebnisse an.
Einführung von Llama 3.2: Multimodale Intelligenz freisetzen
Die Veröffentlichung von Llama 3.2 stellt einen bedeutenden Fortschritt in der KI-Technologie dar und bietet Entwicklern die Werkzeuge, um eine neue Generation privater, effizienter und verantwortungsvoller KI-Erlebnisse zu schaffen. Llama 3.2 umfasst mehrsprachige Modelle mit 1B bis 90B Parametern, die Text- und Bildeingaben verarbeiten können. Diese Modelle, einschließlich der leichten Nur-Text-Optionen (1B und 3B) und der Vision-LLMs (11B und 90B), unterstützen lange Kontextlängen und sind für die Inferenz mithilfe erweiterter Abfrageaufmerksamkeitsmechanismen optimiert.
Die Modelle 3.2B und 11B von Llama 90 bieten Bildanalysefunktionen, darunter das Verständnis auf Dokumentebene, wie das Interpretieren von Diagrammen und Grafiken sowie Bildunterschriften. Die Modelle unterstützen auch Echtzeit- und Batch-Inferenz und sind für interaktive und hochdurchsatzstarke Workloads optimiert. In Kombination mit den AI Factory-Lösungen von Dell ermöglichen diese Modelle Unternehmen, KI in vielen Anwendungen zu nutzen, darunter die Fehlererkennung in der Fertigung, die Verbesserung der Diagnosegenauigkeit im Gesundheitswesen und die Verbesserung des Bestandsmanagements im Einzelhandel.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed