Oggi, alla GPU Technology Conference (GTC) di Taiwan 2018, Super Micro Computer, Inc. ha annunciato l'adozione della piattaforma server cloud HGX-2 di NVIDIA per l'intelligenza artificiale (AI) e il calcolo ad alte prestazioni (HPC). Supermicro presenta inoltre le sue nuove piattaforme ottimizzate per GPU basate sugli acceleratori GPU NVIDIA Tesla V100 PCI-E e V100 SXM2 Tensor Core nel suo stand dello sponsor platino. Queste nuove piattaforme rispondono anche alle esigenze dell’intelligenza artificiale, del deep learning e dell’analisi dei big data.
Oggi, alla GPU Technology Conference (GTC) di Taiwan 2018, Super Micro Computer, Inc. ha annunciato l'adozione della piattaforma server cloud HGX-2 di NVIDIA per l'intelligenza artificiale (AI) e il calcolo ad alte prestazioni (HPC). Supermicro presenta inoltre le sue nuove piattaforme ottimizzate per GPU basate sugli acceleratori GPU NVIDIA Tesla V100 PCI-E e V100 SXM2 Tensor Core nel suo stand dello sponsor platino. Queste nuove piattaforme rispondono anche alle esigenze dell’intelligenza artificiale, del deep learning e dell’analisi dei big data.
L’intelligenza artificiale ha il potenziale per trasformare rapidamente molti settori e sta rapidamente diventando il fulcro di molti. Un'altra area di interesse che può sbloccare informazioni dettagliate è l'HPC. Entrambe queste tecnologie e i relativi modelli stanno aumentando di dimensioni e necessitano di piattaforme sempre più potenti per sfruttarle appieno. Per offrire ai team AI e HPC ciò di cui hanno bisogno, Supermicro sta rilasciando i suoi nuovi sistemi server cloud basati su HGX-2. Questi sistemi hanno fino a 16 GPU Tesla V100 e NVSwitch sfrutta oltre 80,000 Cuda Core. L'azienda afferma che il suo nuovo HGX-2 SuperServer può raggiungere 2 PetaFlops e lo definisce la piattaforma server cloud più potente al mondo per AI e HPC.
Anche sul fronte basato su GPU, Supermicro presenta diverse piattaforme che sfruttano la tecnologia NVIDIA. L'azienda ha introdotto il 4U, 4029GP-TVRT per le massime prestazioni. Il 4029GP-TVRT sfrutta NVIDIA HGX-T1 e supporta otto acceleratori GPU NVIDIA Tesla V100 32GB SXM2 con la massima larghezza di banda da GPU a GPU per applicazioni cluster e iper-scala. Questa nuova piattaforma incorpora anche la più recente tecnologia NVIDIA NVLink per una larghezza di banda cinque volte superiore a quella di PCIe 3.0.
Un altro sistema 4U orientato alle prestazioni è il SuperServer 4029GR-TRT2. Questo server supporta fino a dieci acceleratori PCIe NVIDIA Tesla V100 sfruttando il design PCIe complesso a radice singola ottimizzato per GPU dell'azienda, che sostiene migliora notevolmente le prestazioni di comunicazione peer-to-peer della GPU. Supermicro presenta un'elevata densità GPU in un formato più piccolo con il 1U 1029GQ-TRT che supporta quattro acceleratori GPU NVIDIA Tesla V100 PCIe e il 1U 1029GQ-TVRT che supporta quattro acceleratori GPU NVIDIA Tesla V100 SXM2 da 32 GB.
I sistemi GPU di Supermicro supportano Tesla P4, ideale per server scalabili e per quelli che necessitano di transcodificare più flussi video HD in tempo reale. Questo si presta bene anche al deep learning.
Iscriviti alla newsletter di StorageReview