NVIDIA hat mit seiner neuesten Enthüllung – dem NVIDIA GH200 Grace Hopper Superchip – in der Welt der künstlichen Intelligenz (KI) und des Hochleistungsrechnens für Furore gesorgt. Dieses aktuelle Angebot hat in den MLPerf-Benchmarks eine hervorragende Leistung gezeigt und die Kompetenz von NVIDIA im Bereich Cloud- und Edge-KI unter Beweis gestellt.
NVIDIA hat mit seiner neuesten Enthüllung – dem NVIDIA GH200 Grace Hopper Superchip – in der Welt der künstlichen Intelligenz (KI) und des Hochleistungsrechnens für Furore gesorgt. Dieses aktuelle Angebot hat in den MLPerf-Benchmarks eine hervorragende Leistung gezeigt und die Kompetenz von NVIDIA im Bereich Cloud- und Edge-KI unter Beweis gestellt.
Ein Superchip, der Bände spricht
Der GH200 Superchip ist nicht irgendein gewöhnlicher Chip. Es kombiniert auf einzigartige Weise eine Hopper-GPU mit einer Grace-CPU und bietet so mehr Speicher, Bandbreite und die Möglichkeit, die Leistung zwischen CPU und GPU automatisch anzupassen, um Spitzenleistung zu erzielen. Diese innovative Integration ermöglicht es dem Chip, ein empfindliches Gleichgewicht zwischen Leistung und Leistung zu erreichen und sicherzustellen, dass KI-Anwendungen die Ressourcen erhalten, die sie benötigen, wenn sie sie benötigen.
Außergewöhnliche MLPerf-Ergebnisse
MLPerf-Benchmarks sind ein angesehener Industriestandard und der GH200 von NVIDIA hat nicht enttäuscht. Der Superchip führte nicht nur alle Inferenztests im Rechenzentrum durch, sondern stellte auch die Vielseitigkeit der KI-Plattform von NVIDIA unter Beweis und erweiterte ihren Anwendungsbereich vom Cloud-Betrieb bis zu den Rändern des Netzwerks.
Darüber hinaus blieben auch die H100-GPUs von NVIDIA nicht zurück. Die mit acht H100-GPUs ausgestatteten HGX H100-Systeme zeigten bei allen MLPerf-Inferenztests einen überlegenen Durchsatz. Dies unterstreicht das immense Potenzial und die Fähigkeiten der H100-GPUs, insbesondere für Aufgaben wie Computer Vision, Spracherkennung, medizinische Bildgebung, Empfehlungssysteme und große Sprachmodelle (LLMs).
TensorRT-LLM: Verbesserung der Inferenzleistung
NVIDIA stand schon immer an der Spitze der kontinuierlichen Innovation TensorRT-LLM ist ein Zeugnis dieses Erbes. Diese generative KI-Software fördert die Inferenz und wird als Open-Source-Bibliothek geliefert. Auch wenn es nicht rechtzeitig zur Evaluierung im August bei MLPerf eingereicht wurde, ist es vielversprechend und ermöglicht es Benutzern, die Leistung ihrer H100-GPUs zu steigern, ohne dass zusätzliche Kosten entstehen. Partner wie Meta, Cohere und Grammarly haben von NVIDIAs Bemühungen zur Verbesserung der LLM-Inferenz profitiert und die Bedeutung solcher Softwareentwicklungen im KI-Bereich bekräftigt.
L4-GPUs: Brücke zwischen Mainstream-Servern und Leistung
Mit den neuesten MLPerf-Benchmarkshaben die L4-GPUs bei einer Vielzahl von Arbeitslasten eine lobenswerte Leistung gezeigt. Wenn diese GPUs in kompakten Beschleunigern untergebracht sind, sind die Leistungskennzahlen nachweislich bis zu sechsmal effizienter als CPUs mit höheren Nennleistungen. Die Einführung dedizierter Medien-Engines in Zusammenarbeit mit der CUDA-Software verschafft der L4-GPU einen Vorsprung, insbesondere bei Computer-Vision-Aufgaben.
Grenzen überschreiten: Edge Computing und mehr
Die Fortschritte beschränken sich nicht nur auf Cloud Computing. Der Fokus von NVIDIA auf Edge Computing wird am Jetson Orin System-on-Module deutlich, das im Vergleich zu seinen Vorgängerversionen Leistungssteigerungen von bis zu 84 % bei der Objekterkennung aufweist.
MLPerf: Ein transparenter Benchmarking-Standard
MLPerf ist weiterhin ein objektiver Maßstab, auf den sich Benutzer auf der ganzen Welt bei Kaufentscheidungen verlassen. Die Einbeziehung von Cloud-Service-Giganten wie Microsoft Azure und Oracle Cloud Infrastructure sowie renommierten Systemherstellern wie Dell, Lenovo und Supermicro unterstreicht die Bedeutung von MLPerf in der Branche.
Zusammenfassend lässt sich sagen, dass NVIDIAs jüngste Leistung bei den MLPerf-Benchmarks seine Führungsposition im KI-Sektor stärkt. Mit einem breiten Ökosystem, kontinuierlichen Software-Innovationen und der Verpflichtung, qualitativ hochwertige Leistung zu liefern, gestaltet NVIDIA tatsächlich die Zukunft der KI.
Einen tiefergehenden technischen Einblick in die Leistungen von NVIDIA finden Sie unter dem Link technischer Blog. Wer den Benchmarking-Erfolg von NVIDIA wiederholen möchte, kann über das auf die Software zugreifen MLPerf-Repository und der NVIDIA NGC-Software-Hub.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed