Home Enterprise NVIDIA A100 GPU's komen naar Google Cloud

NVIDIA A100 GPU's komen naar Google Cloud

by Adam Amstrong
NVIDIA A100Google

Aangekondigd op GTC en beschikbaar komen als AIC bij ISC, NVIDIA A100 GPU's komen nu naar Google Cloud. Aangezien het nog maar ongeveer een maand geleden is sinds de eerste aankondiging, is dit een heel snelle stap voor een GPU naar een grote openbare cloud. Google is de eerste grote openbare cloud die de A100, of Ampere GPU's, introduceert onder zijn Accelerator-Optimized VM (A2) instance-familie.

Aangekondigd op GTC en beschikbaar komen als AIC bij ISC, NVIDIA A100 GPU's komen nu naar Google Cloud. Aangezien het nog maar ongeveer een maand geleden is sinds de eerste aankondiging, is dit een heel snelle stap voor een GPU naar een grote openbare cloud. Google is de eerste grote openbare cloud die de A100, of Ampere GPU's, introduceert onder zijn Accelerator-Optimized VM (A2) instance-familie.

NVIDIA A100Google

Zoals we al zeiden bij de eerste aankondiging, is NVIDIA's eerste 7nm GPU de NVIDIA A100. De A100 is gebaseerd op NVIDIA's Ampere-architectuur en bevat 54 miljard transistors. Net als eerdere NVIDIA-datacenter-GPU's, bevat de A100 Tensor Cores. Tensor-kernen zijn gespecialiseerde onderdelen van de GPU die speciaal zijn ontworpen om snel een soort matrixvermenigvuldiging en optelberekening uit te voeren die vaak wordt gebruikt bij inferenties. Met nieuwe krachtigere GPU's komen nieuwe, krachtigere Tensor Cores. Voorheen konden de Tensor Cores van NVIDIA slechts maximaal tweeëndertig bits met drijvende komma ondersteunen. De A100 ondersteunt vierenzestig-bit drijvende-kommabewerkingen, waardoor een veel grotere precisie mogelijk is.

Verschillende use-cases voor de cloud hebben het type rekenkracht nodig dat GPU's kunnen bieden, met name AI-training en inferentie, data-analyse, wetenschappelijk computergebruik, genomics, edge-video-analyse, 5G-services, onder andere. De nieuwe NVIDIA A100 GPU's kunnen de prestaties van training en inferentieprestaties met 20x verbeteren ten opzichte van zijn voorgangers, waardoor het ideaal is voor het bovenstaande.

Google Compute Engine zal de A100 gebruiken voor meerdere doeleinden, van opschaling van AI-training en wetenschappelijk computergebruik, tot opschaling van gevolgtrekkingstoepassingen, tot het mogelijk maken van real-time conversatie-AI. Het nieuwe exemplaar, A2 VM, kan werken in workloads van verschillende groottes. De instantie werkt met CUDA-enabled machine learning training en inferentie, data-analyse en high-performance computing. Voor de grote workloads biedt Google de a2-megagpu-16g-instantie, die wordt geleverd met 16 A100 GPU's, die in totaal 640 GB GPU-geheugen en 1.3 TB systeemgeheugen bieden, allemaal verbonden via NVSwitch met tot 9.6 TB/s aan totaal bandbreedte. Voor klanten die niet zoveel stroom nodig hebben, zullen er ook kleinere A2 VM's zijn.

In de nabije toekomst rolt Google Cloud A100-ondersteuning uit voor Google Kubernetes Engine, Cloud AI Platform en andere Google Cloud-services.

NVIDIA

Neem contact op met StorageReview

Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS Feed