NVIDIA heeft vandaag op SC20 aangekondigd dat zijn populaire A100 GPU een verdubbeling van het geheugen met hoge bandbreedte zal zien met de onthulling van de NVIDIA A100 80GB GPU. Deze nieuwe GPU zal de innovatie zijn die het nieuwe NVIDIA HGX AI-supercomputerplatform aandrijft. Met twee keer zoveel geheugen hoopt de nieuwe GPU onderzoekers en ingenieurs te helpen ongekende snelheden en prestaties te bereiken om de volgende golf van AI en wetenschappelijke doorbraken te ontsluiten.
NVIDIA heeft vandaag op SC20 aangekondigd dat zijn populaire A100 GPU een verdubbeling van het geheugen met hoge bandbreedte zal zien met de onthulling van de NVIDIA A100 80GB GPU. Deze nieuwe GPU zal de innovatie zijn die het nieuwe NVIDIA HGX AI-supercomputerplatform aandrijft. Met twee keer zoveel geheugen hoopt de nieuwe GPU onderzoekers en ingenieurs te helpen ongekende snelheden en prestaties te bereiken om de volgende golf van AI en wetenschappelijke doorbraken te ontsluiten.
Eerder dit jaar kondigde NVICIA tijdens GTC de release aan van zijn 7nm GPU, de NVIDIA A100. Zoals we destijds schreven, is de A100 gebaseerd op NVIDIA's Ampere-architectuur en bevat hij 54 miljard transistors. Net als eerdere NVIDIA-datacenter-GPU's, bevat de A100 Tensor Cores. Tensor-cores zijn gespecialiseerde onderdelen van de GPU die speciaal zijn ontworpen om snel een soort matrixvermenigvuldiging en optelberekening uit te voeren die vaak wordt gebruikt bij inferenties. Met nieuwe krachtigere GPU's komen nieuwe, krachtigere Tensor Cores. Voorheen konden de Tensor Cores van NVIDIA slechts maximaal tweeëndertig bits met drijvende komma ondersteunen. De A100 ondersteunt vierenzestig-bit drijvende-kommabewerkingen, waardoor een veel grotere precisie mogelijk is.
Het verhogen van het geheugen met hoge bandbreedte (HBM2e) tot 80 GB zou 2 terabytes per seconde aan geheugenbandbreedte kunnen leveren. Deze nieuwe boost helpt bij de opkomende toepassingen in HPC die enorme eisen stellen aan datageheugen, zoals AI-training, natuurlijke taalverwerking en big data-analyse, om er maar een paar te noemen.
Belangrijkste kenmerken van A100 80 GB
De A100 80GB bevat de vele baanbrekende functies van de NVIDIA Ampere-architectuur:
- Derde generatie Tensor Cores: biedt tot 20x AI-doorvoer van de vorige Volta-generatie met een nieuw formaat TF32, evenals 2.5x FP64 voor HPC, 20x INT8 voor AI-inferentie en ondersteuning voor het BF16-gegevensformaat.
- Groter, sneller HBM2e GPU-geheugen: verdubbelt de geheugencapaciteit en biedt als eerste in de branche een geheugenbandbreedte van meer dan 2 TB per seconde.
- MIG-technologie: verdubbelt het geheugen per geïsoleerde instantie en biedt tot zeven MIG's van elk 10 GB.
- Structurele Sparsity: Levert tot 2x snellere inferentie-sparse modellen.
- Derde generatie NVLink en NVSwitch: Biedt tweemaal de GPU-naar-GPU-bandbreedte van de vorige generatie interconnecttechnologie, waardoor gegevensoverdracht naar de GPU voor gegevensintensieve werklasten wordt versneld tot 600 gigabytes per seconde.
Beschikbaarheid
Aanbieders van systemen Atos, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta en Supermicro zullen naar verwachting in de eerste helft van volgend jaar beginnen met het aanbieden van systemen die zijn gebouwd met HGX A100 geïntegreerde plinten met A100 80GB GPU's.
Neem contact op met StorageReview
Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS Feed