Startseite Unternehmen NVIDIA A100 auf der GTC 2020 angekündigt

NVIDIA A100 auf der GTC 2020 angekündigt

by Michael Rink
Nvidia A100

Heute gab NVIDIA auf der neu angesetzten GTC (von NVIDIA organisierte GPU-Technologiekonferenz) bekannt, dass das Unternehmen mit der Auslieferung seiner ersten 7-nm-GPU an Gerätehersteller begonnen hat. Ähnlich wie AMD, das vor zwei Jahren im Jahr 7 eine 2018-nm-GPU herausbrachte, konzentriert sich NVIDIA bei seiner ersten 7-nm-GPU auf die Anwendungsfälle im Rechenzentrum. NVIDIA hat den Schwerpunkt auf Entwicklungen in der künstlichen Intelligenz und anderen Hochleistungsrechnern gelegt. Das Unternehmen sogar kürzlich aufgekauft Mellanox. Anfang dieses Monats gab NVIDIA bekannt, dass sie dies planen Cumulus erwerben .

Heute gab NVIDIA auf der neu angesetzten GTC (von NVIDIA organisierte GPU-Technologiekonferenz) bekannt, dass das Unternehmen mit der Auslieferung seiner ersten 7-nm-GPU an Gerätehersteller begonnen hat. Ähnlich wie AMD, das vor zwei Jahren im Jahr 7 eine 2018-nm-GPU herausbrachte, konzentriert sich NVIDIA bei seiner ersten 7-nm-GPU auf die Anwendungsfälle im Rechenzentrum. NVIDIA hat den Schwerpunkt auf Entwicklungen in der künstlichen Intelligenz und anderen Hochleistungsrechnern gelegt. Das Unternehmen sogar kürzlich aufgekauft Mellanox. Anfang dieses Monats gab NVIDIA bekannt, dass sie dies planen Cumulus erwerben .

Nvidia A100

NVIDIAs erste 7-nm-GPU ist die NVIDIA A100. Der A100 basiert auf der Ampere-Architektur von NVIDIA und enthält 54 Milliarden Transistoren. Wie frühere Rechenzentrums-GPUs von NVIDIA verfügt auch der A100 über Tensorkerne. Tensor-Kerne sind spezielle Teile der GPU, die speziell dafür entwickelt wurden, schnell eine Art Matrixmultiplikation und Additionsberechnung durchzuführen, die häufig bei Inferenzen verwendet wird. Mit neuen, leistungsstärkeren GPUs kommen auch neue, leistungsstärkere Tensor-Kerne. Bisher konnten NVIDIAs Tensor-Cores nur bis zu 100-Bit-Gleitkommazahlen unterstützen. Der AXNUMX unterstützt XNUMX-Bit-Gleitkommaoperationen und ermöglicht so eine wesentlich höhere Präzision.

Neu im A100 ist auch die Multi-Instanz-GPU-Fähigkeit. Jede A100-GPU kann in bis zu sieben unabhängige Instanzen aufgeteilt werden, um eine große Anzahl von Aufgaben gleichzeitig zu erledigen.

NVIDIA A100-Spezifikationen

Transistoranzahl

54 Milliarden

Die Größe

826 mm2

FP64 CUDA-Kerne

3,456

FP32 CUDA-Kerne

6,912

Tensorkerne

432

Streaming von Multiprozessoren

108

FP64

9.7 TeraFLOPS

FP64 Tensorkern

19.5 TeraFLOPS

FP32

19.5 TeraFLOPS

TF32 Tensorkern

156 TeraFLOPS | 312 TeraFLOPS*

BFLOAT16 Tensorkern

312 TeraFLOPS | 624 TeraFLOPS*

FP16 Tensorkern

312 TeraFLOPS | 624 TeraFLOPS*

INT8 Tensorkern

624 TOPS | 1,248 TOPS*

INT4 Tensorkern

1,248 TOPS | 2,496 TOPS*

GPU-Speicher

40 GB

GPU-Speicherbandbreite

1.6 TB / s

Interconnect

NVLink 600 GB/s PCIe Gen4 64 GB/s

GPUs mit mehreren Instanzen

Verschiedene Instanzgrößen mit bis zu 7MIGs @5GB

Formfaktor

4/8 SXM-GPUs im HGX A100

Maximale Kraft

400 W (SXM)

Zusätzlich zur einzelnen A100-GPU bringt NVIDIA gleichzeitig auch zwei Cluster-GPUs auf den Markt. Das NVIDIA DGX A100-System verfügt über acht NVIDIA A100-GPUs, die mit NVIDIA NVSwitch verbunden sind. Sein kleinerer Bruder, NVIDIA HGX A100, besteht aus vier A100-GPUs, die über NVLink miteinander verbunden sind. Sowohl NVLINK als auch NVSwitch ermöglichen die Zusammenarbeit der einzelnen GPUs bei großen Aufgaben. NVLink ist eine echte All-to-All-Verbindung. Um die größere Anzahl von GPUs auf den NVSwitch-Verbindungen bewältigen zu können, hat sich NVIDIA dafür entschieden, die NVLinks zwischen den GPUs miteinander zu verbinden. NVIDIA hat seine All-to-All-Verbindung für den neuen A100 verbessert und die Konnektivität verdoppelt, um die viel leistungsstärkeren Kerne in den Chips zu unterstützen. NVIDIA gibt an, die Leistung ihres vorherigen DGX-Systems mehr als verdoppelt zu haben. Ihnen zufolge kann ihr neuer DGX A100 mit acht GPUs unglaubliche fünf Petaflops leisten. Ihre Vorgängergeneration, der DGX-2, sechzehn GPUs, schafft aber nur zwei Petaflops. Ich hatte nicht erwartet, dass das Wort „nur“ bald für ein System mit zwei Petaflops verwendet wird, aber wenn der neue Cluster die Leistung mit der halben Anzahl an GPUs mehr als verdoppelt, scheint es passend. Der DGX A100 verfügt außerdem über 320 GB Speicher und neun NVIDIA Mellanox ConnectX-6 HDR-Netzwerkschnittstellen mit 200 Gbit pro Sekunde und bietet insgesamt 3.6 TB pro Sekunde bidirektionale Bandbreite.

Um die schiere Leistung des DGX A100 ins rechte Licht zu rücken: Der zehntstärkste Supercomputer der Welt hat einen Benchmark von 18 Petaflops. Schieben Sie ein paar der neuen bösen Jungs von NVIDIA zusammen und Sie haben Ihren ganz eigenen Weltklasse-Supercomputer. Erstaunlicherweise hat NVIDIA eine DGX SuperPOD-Referenzarchitektur veröffentlicht, die genau das leistet. Wenn das System die von NVIDIA behauptete Leistung erbringt, könnten die nächsten Monate für Supercomputing-Enthusiasten sehr seltsam werden.

Zurück in der normalen Welt mit typischeren Anwendungsfällen hat NVIDIA außerdem Pläne angekündigt, bis Ende des Jahres einen Edge-Server mit seinen neuen GPUs herauszubringen. Der EGX A100 wird nur von einer der neuen A100-GPUs angetrieben. NVIDIA plant, den Edge-Server EGX A100 auf Red Hat Enterprise Linux laufen zu lassen. Die Appliances werden wahrscheinlich die kürzlich von NVIDIA erworbenen Mellanox ConnectX-6 Dx-Netzwerkkarten verwenden, um bis zu 200 Gbit/s an Daten zu empfangen und diese zur KI- oder 5G-Signalverarbeitung direkt an den GPU-Speicher zu senden. Dass NVIDIA selbst nicht vor Ende des Jahres plant, eine Appliance mit nur einer ihrer neuen GPUs herauszubringen, unterstreicht wirklich, was für eine verrückte Idee es wirklich ist, mehrere DGX A100s, die ihrerseits Cluster aus acht A100s sind, zusammenzufassen.

NVIDIA-Hauptseite

Diskutieren Sie auf Reddit

Beteiligen Sie sich an StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS Feed