Super Micro Computer, Inc. gab heute auf der GPU Technology Conference (GTC) Taiwan 2018 die Einführung der HGX-2 Cloud-Server-Plattform von NVIDIA für künstliche Intelligenz (KI) und Hochleistungsrechnen (HPC) bekannt. Supermicro präsentiert an seinem Platin-Sponsorstand auch seine neuen GPU-optimierten Plattformen, die auf den GPU-Beschleunigern NVIDIA Tesla V100 PCI-E und V100 SXM2 Tensor Core basieren. Diese neuen Plattformen erfüllen auch die Anforderungen von KI sowie Deep Learning und Big Data Analytics.
Super Micro Computer, Inc. gab heute auf der GPU Technology Conference (GTC) Taiwan 2018 die Einführung der HGX-2 Cloud-Server-Plattform von NVIDIA für künstliche Intelligenz (KI) und Hochleistungsrechnen (HPC) bekannt. Supermicro präsentiert an seinem Platin-Sponsorstand auch seine neuen GPU-optimierten Plattformen, die auf den GPU-Beschleunigern NVIDIA Tesla V100 PCI-E und V100 SXM2 Tensor Core basieren. Diese neuen Plattformen erfüllen auch die Anforderungen von KI sowie Deep Learning und Big Data Analytics.
KI hat das Potenzial, viele Branchen schnell zu verändern und rückt schnell in den Fokus mehrerer Branchen. Ein weiterer Interessenbereich, der Erkenntnisse ermöglichen kann, ist HPC. Beide Technologien und ihre Modelle werden immer umfangreicher und benötigen immer leistungsfähigere Plattformen, um sie voll nutzen zu können. Um KI- und HPC-Teams das zu geben, was sie brauchen, bringt Supermicro seine neuen HGX-2-basierten Cloud-Serversysteme auf den Markt. Diese Systeme verfügen über bis zu 16 Tesla V100-GPUs und NVSwitch nutzt über 80,000 Cuda-Kerne. Das Unternehmen gibt an, dass sein neuer HGX-2 SuperServer 2 PetaFlops erreichen kann und bezeichnet ihn als die weltweit leistungsstärkste Cloud-Server-Plattform für KI und HPC.
Auch im GPU-basierten Bereich stellt Supermicro mehrere Plattformen vor, die NVIDIA-Technologie nutzen. Für maximale Leistung hat das Unternehmen den 4U, 4029GP-TVRT eingeführt. Der 4029GP-TVRT nutzt den NVIDIA HGX-T1 und unterstützt acht NVIDIA Tesla V100 32 GB SXM2 GPU-Beschleuniger mit maximaler GPU-zu-GPU-Bandbreite für Cluster- und Hyperscale-Anwendungen. Diese neue Plattform beinhaltet außerdem die neueste NVIDIA NVLink-Technologie für eine fünfmal höhere Bandbreite als PCIe 3.0.
Ein weiteres auf Leistung ausgerichtetes 4U-System ist der SuperServer 4029GR-TRT2. Dieser Server unterstützt bis zu zehn PCIe NVIDIA Tesla V100-Beschleuniger, indem er das GPU-optimierte Single-Root-Komplex-PCIe-Design des Unternehmens nutzt, das angeblich die GPU-Peer-to-Peer-Kommunikationsleistung erheblich verbessert. Supermicro präsentiert eine hohe GPU-Dichte in einer kleineren Version mit dem 1U 1029GQ-TRT, das vier NVIDIA Tesla V100 PCIe GPU-Beschleuniger unterstützt, und dem 1U 1029GQ-TVRT, das vier NVIDIA Tesla V100 SXM2 32GB GPU-Beschleuniger unterstützt.
Die GPU-Systeme von Supermicro unterstützen den Tesla P4, der sich ideal für Scale-out-Server und solche eignet, die mehrere HD-Videostreams in Echtzeit transkodieren müssen. Dies eignet sich auch gut für Deep Learning.
Melden Sie sich für den StorageReview-Newsletter an