Dieses Jahr machte NVIDIA auf der ISC Digital eine Handvoll Ankündigungen rund um das Thema A100-GPU. Gleichzeitig kündigte das Unternehmen eine neue KI-Plattform für Supercomputing an, die NVIDIA Mellanox UFM Cyber-AI Platform. Und NVIDIA hat einen weiteren Benchmark gebrochen.
Dieses Jahr machte NVIDIA auf der ISC Digital eine Handvoll Ankündigungen rund um das Thema A100-GPU. Gleichzeitig kündigte das Unternehmen eine neue KI-Plattform für Supercomputing an, die NVIDIA Mellanox UFM Cyber-AI Platform. Und NVIDIA hat einen weiteren Benchmark gebrochen.
Letzten Monat kündigte NVIDIA seine neue Ampere-Architektur und seine 7-nm-GPU, die NVIDIA A100, an. Gleichzeitig brachte das Unternehmen sein eigenes A100-System auf den Markt. NVIDIA hat einen PCIe-Formfaktor für den A100 angekündigt, der es allen Top-Anbietern ermöglicht, ihre eigene Version des A100 herauszubringen. Zu diesen Anbietern und ihren Systemen gehören:
- ASUS wird den ESC4000A-E10 anbieten, der mit vier A100 PCIe GPUs in einem einzigen Server konfiguriert werden kann.
- Atos bietet sein BullSequana X2415-System mit vier NVIDIA A100 Tensor Core GPUs an.
- Cisco plant, NVIDIA A100 Tensor Core GPUs in seinen Cisco Unified Computing System-Servern und in seinem hyperkonvergenten Infrastruktursystem Cisco HyperFlex zu unterstützen.
- Dell Technologies plant, NVIDIA A100 Tensor Core GPUs auf seinen PowerEdge-Servern und -Lösungen zu unterstützen, die Arbeitslasten vom Edge über den Core bis zur Cloud beschleunigen, ebenso wie andere NVIDIA GPU-Beschleuniger, Software und Technologien in einer breiten Palette von Angeboten.
- Fujitsu bringt A100-GPUs in seine PRIMERGY-Serverreihe.
- GIGABYTE wird G481-HA0-, G492-Z50- und G492-Z51-Server anbieten, die bis zu 10 A100 PCIe-GPUs unterstützen, während der G292-Z40-Server bis zu acht unterstützt.
- HPE unterstützt A100 PCIe GPUs im HPE ProLiant DL380 Gen10 Server und für beschleunigte HPC- und KI-Workloads im HPE Apollo 6500 Gen10 System.
- Inspur bringt acht NVIDIA A100-basierte Systeme auf den Markt, darunter das NF5468M5, NF5468M6 und NF5468A5 mit A100-PCIe-GPUs, das NF5488M5-D, NF5488A5, NF5488M6 und NF5688M6 mit Acht-Wege-NVLink und das NF5888M6 mit 16-Wege-NVLink.
- Lenovo unterstützt A100-PCIe-GPUs auf ausgewählten Systemen, einschließlich des Lenovo ThinkSystem SR670 AI-ready-Servers. Lenovo wird die Verfügbarkeit seines ThinkSystem- und ThinkAgile-Portfolios im Herbst erweitern.
- One Stop Systems wird sein OSS 4UV Gen 4 PCIe-Erweiterungssystem mit bis zu acht NVIDIA A100 PCIe GPUs anbieten, um KI- und HPC-Kunden die Skalierung ihrer Gen 4-Server zu ermöglichen.
- Quanta/QCT wird mehrere QuantaGrid-Serversysteme anbieten, darunter D52BV-2U, D43KQ-2U und D52G-4U, die bis zu acht NVIDIA A100 PCIe-GPUs unterstützen.
- Supermicro wird sein 4U A+ GPU-System anbieten, das bis zu acht NVIDIA A100 PCIe GPUs und bis zu zwei zusätzliche Hochleistungs-PCI-E 4.0-Erweiterungssteckplätze zusammen mit anderen 1U-, 2U- und 4U-GPU-Servern unterstützt.
Ausfallzeiten können jedes Rechenzentrum belasten, können aber in Supercomputing-Rechenzentren als schlimmer angesehen werden. NVIDIA möchte mit der Veröffentlichung der NVIDIA Mellanox UFM Cyber-AI-Plattform Ausfallzeiten in InfiniBand-Rechenzentren minimieren. Wie der Name schon sagt, ist die Plattform eine Erweiterung des UFM-Portfolios und nutzt KI, um Sicherheitsbedrohungen und Betriebsprobleme zu erkennen sowie Netzwerkausfälle vorherzusagen. Die Plattform erkennt nicht nur Probleme und Bedrohungen (einschließlich Hacker), sondern ergreift auch automatisch Korrekturmaßnahmen, um die Probleme zu beheben.
NVIDIA gab stolz bekannt, dass es einen weiteren Maßstab brechen konnte, und zwar im Bereich Big Data Analytics, bekannt als TPCx-BB. NVIDIA nutzte die RAPIDS-Suite von Open-Source-Data-Science-Softwarebibliotheken, die auf 16 NVIDIA DGX A100-Systemen basieren. Sie konnten den Benchmark in 14.5 Minuten ausführen, verglichen mit dem vorherigen Rekord von 4.7 Stunden. Oder 19.5-mal schneller
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS Feed