Home Enterprise OCI Compute BM.GPU.H100.8 brengt 8 NVIDIA H100 GPU's naar de cloud

OCI Compute BM.GPU.H100.8 brengt 8 NVIDIA H100 GPU's naar de cloud

by Brian Beeler

Oracle Cloud Infrastructure (OCI) heeft een nieuwe bare metal-computervorm gelanceerd die acht NVIDIA H100 GPU's, dubbele Intel 56-core Xeon CPU's, 2TB DDR5, 16x NVMe SSD's en 400Gb-netwerken combineert tot een AI-droom in de cloud. OCI Compute BM.GPU.H100.8 is nu algemeen beschikbaar.

Oracle Cloud Infrastructure (OCI) heeft een nieuwe bare metal-computervorm gelanceerd die acht NVIDIA H100 GPU's, dubbele Intel 56-core Xeon CPU's, 2TB DDR5, 16x NVMe SSD's en 400Gb-netwerken combineert tot een AI-droom in de cloud. OCI Compute BM.GPU.H100.8 is nu algemeen beschikbaar.

De nieuwe OCI Compute BM.GPU.H100.8-vormen maken in wezen gebruik van de enorme bare metal-cloudexpertise van Oracle om een ​​cloudversie te leveren van de zeer dichte 8-weg H100 GPU-servers die vaak op locatie worden aangetroffen. Maar waar zoiets als de Dell PowerEdge XE9680 Het kan wat tijd kosten om te leveren en omdat CAPEX hits oplevert, kan OCI Compute BM.GPU.H100.8 directer beschikbaar worden gemaakt en volgt het traditionele cloud-OPEX-model.

OCI Bereken BM.GPU.H100.8

Bestanddeel Specificaties
CPU 4e generatie Intel Xeon-processors, 2x 56 cores
GPU 8x NVIDIA H100 80GB Tensor-kern
Geheugen 2 TB DDR5
Lokale opslag 16x 3.84TB NVMe
Clusternetwerken 8x 400 Gb/sec

De specificaties van OCI Compute BM.GPU.H100.8 modelleren min of meer de lokale versies van deze krachtige GPU-servers, zij het met twee keer zoveel SSD's (hoewel lage capaciteit) die doorgaans op servers als deze worden aangetroffen. Oracle heeft ook aangegeven dat het van plan is de nieuwe NVIDIA L40S GPU's aan te bieden in vormen die begin 2024 beschikbaar komen. De BM.L40S.4-vorm zal vier L40S GPU's bevatten met twee Intel Xeon 56-core CPU's, 1 TB geheugen, 15.36 TB aan NVMe-opslag en 400 GB/s netwerkbandbreedte.

Hoewel veel organisaties het prima zullen redden met één van deze instances, stelt OCI Supercluster hen in staat om van één node op te schalen naar 50,000 H100 GPU's. Deze optie zal later dit jaar beschikbaar zijn in de regio's Londen en Chicago, en er zullen er in de toekomst nog meer volgen.

OCI AI-infrastructuur

Neem contact op met StorageReview

Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed