Idag, vid den omplanerade GTC (GPU Technology Conference som anordnades av NVIDIA), avslöjade NVIDIA att de har börjat skicka sin första 7nm GPU till tillverkare av vitvaror. Ungefär som AMD, som släppte en 7nm GPU för två år sedan 2018, väljer NVIDIA att fokusera på datacentrets användningsfall för deras första 7nm GPU. NVIDIA har betonat utvecklingen inom artificiell intelligens och annan högpresterande datoranvändning. Företaget till och med nyligen köpt ut Mellanox. Tidigare denna månad meddelade NVIDIA att de letade efter förvärva Cumulus också.
Idag, vid den omplanerade GTC (GPU Technology Conference som anordnades av NVIDIA), avslöjade NVIDIA att de har börjat skicka sin första 7nm GPU till tillverkare av vitvaror. Ungefär som AMD, som släppte en 7nm GPU för två år sedan 2018, väljer NVIDIA att fokusera på datacentrets användningsfall för deras första 7nm GPU. NVIDIA har betonat utvecklingen inom artificiell intelligens och annan högpresterande datoranvändning. Företaget till och med nyligen köpt ut Mellanox. Tidigare denna månad meddelade NVIDIA att de letade efter förvärva Cumulus också.
NVIDIAs första 7nm GPU är NVIDIA A100. A100 är baserad på NVIDIAs Ampere-arkitektur och innehåller 54 miljarder transistorer. Liksom tidigare NVIDIA datacenter GPU:er inkluderar A100 Tensor Cores. Tensor-kärnor är specialiserade delar av grafikprocessorn som är speciellt utformade för att snabbt utföra en typ av matrismultiplikation och additionsberäkning som vanligtvis används vid slutledning. Med nya kraftigare GPU:er kommer nya, kraftigare Tensor-kärnor. Tidigare kunde NVIDIAs Tensor Cores endast stödja upp till trettiotvåbitars flyttal. A100 stöder sextiofyra bitars flyttalsoperationer, vilket möjliggör mycket större precision.
Nytt i A100 är också en multi-instans GPU-kapacitet. Varje A100 GPU kan delas upp i så många som sju oberoende instanser för att hantera ett stort antal uppgifter samtidigt.
Specifikationer för NVIDIA A100
Transistorräknare |
54 miljarder |
Måttstorlek |
826 mm2 |
FP64 CUDA-kärnor |
3,456 |
FP32 CUDA-kärnor |
6,912 |
Tensorkärnor |
432 |
Strömmande multiprocessorer |
108 |
FP64 |
9.7 teraFLOPS |
FP64 Tensor Core |
19.5 teraFLOPS |
FP32 |
19.5 teraFLOPS |
TF32 Tensor Core |
156 teraFLOPS | 312 teraFLOPS* |
BFLOAT16 Tensor Core |
312 teraFLOPS | 624 teraFLOPS* |
FP16 Tensor Core |
312 teraFLOPS | 624 teraFLOPS* |
INT8 Tensor Core |
624 TOPPAR | 1,248 XNUMX TOPP* |
INT4 Tensor Core |
1,248 TOPPAR | 2,496 XNUMX TOPP* |
GPU-minne |
40 GB |
GPU-minnes bandbredd |
1.6 TB / s |
Interconnect |
NVLink 600 GB/s PCIe Gen4 64 GB/s |
Multi-instans GPU:er |
Olika instansstorlekar med upp till 7MIGs @5GB |
Formfaktor |
4/8 SXM GPU:er i HGX A100 |
Max effekt |
400W (SXM) |
Förutom den enda A100 GPU:n släpper NVIDIA samtidigt två klustrade GPU:er. NVIDIA DGX A100-systemet har åtta NVIDIA A100 GPU:er sammankopplade med NVIDIA NVSwitch. Det är mindre bror, NVIDIA HGX A100 består av fyra A100 GPU:er sammankopplade via NVLink. Både NVLINK och NVSwitch låter de individuella grafikprocessorerna arbeta tillsammans på stora uppgifter. NVLink är en sann allt-till-alla-sammankoppling. För att hantera det större antalet GPU:er på NVSwitch-anslutningarna, nöjde sig NVIDIA med att korskoppla NVLinks mellan GPU:erna. NVIDIA har förstärkt sin allt-till-alla-koppling för nya A100, och fördubblat anslutningsmöjligheterna för att stödja de mycket kraftfullare kärnorna i chipsen. NVIDIA hävdar att de har mer än fördubblat prestandan från sitt tidigare DGX-system. Enligt dem kan deras nya åtta GPU DGX A100 utföra otroliga fem petaflops. Deras tidigare generation, DGX-2 sexton grafikprocessorer, men klarar bara två petaflops. Jag förväntade mig inte att använda ordet "bara" med något system som stoltserade med två petaflops när som helst snart, men när det nya klustret mer än fördubblar prestandan med hälften av antalet GPU:er verkar det passande. DGX A100 har också 320 GB minne och nio NVIDIA Mellanox ConnectX-6 HDR 200 Gb per sekund nätverksgränssnitt, som erbjuder totalt 3.6 Tb per sekund dubbelriktad bandbredd.
För att sätta kraften hos DGX A100 i perspektiv, är den tionde mest kraftfulla superdatorn i världen benchmarkad till 18 petaflops. Skjut ihop ett par av NVIDIAs nya bad boys så har du din alldeles egna superdator i världsklass. Förvånande nog har NVIDIA släppt en DGX SuperPOD-referensarkitektur som gör just det. Om systemet fungerar så bra som NVIDIA hävdar, kan de närmaste månaderna bli mycket konstiga för superdatorentusiaster.
Tillbaka i den normala världen, med mer typiska användningsfall, har NVIDIA också meddelat planer på att släppa en edge-server med sina nya GPU:er i slutet av året. EGX A100 kommer att drivas av bara en av de nya A100 GPU:erna. NVIDIA planerar att EGX A100 edge-servern ska köras på Red Hat Enterprise Linux. Apparaterna kommer sannolikt att använda NVIDIAs nyligen förvärvade Mellanox ConnectX-6 Dx-nätverkskort för att ta emot upp till 200 Gbps data och skicka den direkt till GPU-minnet för AI- eller 5G-signalbehandling. Att NVIDIA själv inte planerar att släppa en apparat med bara en av sina nya GPU:er i den förrän i slutet av året understryker verkligen vilken vild idé att klustera flera DGX A100:or, som själva är kluster av åtta A100:or, tillsammans, verkligen är.
Engagera dig med StorageReview
Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | Rssflöde