Il server Lenovo ThinkSystem SR675 V3, basato sulle nuove GPU L40S di NVIDIA, è salito sul palco del SIGGRAPH di Los Angeles, diventando un punto focale nei piani di NVIDIA per promuovere l'implementazione dell'intelligenza artificiale a livello globale e introdurre applicazioni di intelligenza artificiale generativa come chatbot intelligenti, strumenti di ricerca e di riepilogo per utenti di vari settori.
Il server Lenovo ThinkSystem SR675 V3, basato sulle nuove GPU L40S di NVIDIA, è salito sul palco del SIGGRAPH di Los Angeles, diventando un punto focale nei piani di NVIDIA per promuovere l'implementazione dell'intelligenza artificiale a livello globale e introdurre applicazioni di intelligenza artificiale generativa come chatbot intelligenti, strumenti di ricerca e di riepilogo per utenti di vari settori.
Il nuovo ThinkSystem è stato presentato come server NVIDIA OVX e presto integrerà le GPU NVIDIA L40S recentemente annunciate. Si prevede che questa collaborazione contribuirà a rivoluzionare le implementazioni dell’intelligenza artificiale, consentendo l’intelligenza artificiale di prossima generazione, simulazioni coinvolgenti del metaverso e decisioni cognitive su larga scala.
GPU NVIDIA L40S
La GPU NVIDIA L40S appena presentata si propone come un potente processore universale per data center, costruito appositamente per accelerare le applicazioni ad alta intensità di calcolo, tra cui formazione e inferenza AI, progettazione e visualizzazione 3D, elaborazione video e digitalizzazione industriale con la piattaforma NVIDIA Omniverse. Vanta un'innovativa accelerazione multi-carico di lavoro per inferenza e riqualificazione LLM (Large Language Model), grafica e applicazioni video.
La GPU L40S potenzia la prossima generazione di applicazioni audio, vocali, 2D, video e 3D abilitate all'intelligenza artificiale ed è un componente cruciale per le prossime piattaforme NVIDIA Omniverse OVX 3.0, offrendo alta fedeltà e gemelli digitali accurati.
La GPU NVIDIA L40S sarà una risorsa chiave nei sistemi NVIDIA OVX. Alimentato dall'architettura GPU NVIDIA Ada Lovelace e da una generosa memoria da 48 GB, ciascun server può ospitare fino a otto GPU L40S. Vanta inoltre Tensor Core di quarta generazione e un Transformer Engine FP8, che offre una sorprendente potenza di elaborazione tensore di 1.45 petaflop.
Rispetto al suo predecessore, la GPU NVIDIA A100 Tensor Core, l'L40S dimostra prestazioni di inferenza AI fino a 1.2 volte più generative e prestazioni di training fino a 1.7 volte più veloci per la gestione di carichi di lavoro AI complessi con miliardi di parametri e molteplici modalità di dati.
La GPU L40S è progettata per soddisfare un'ampia gamma di flussi di lavoro professionali. Include 142 core RT di terza generazione, che offrono 212 teraflop di prestazioni di ray-tracing, ideali per flussi di lavoro di visualizzazione professionale ad alta fedeltà come rendering in tempo reale, progettazione di prodotti e creazione di contenuti 3D.
Inoltre, i 40 core CUDA dell'L18,176S forniscono quasi 5 volte le prestazioni in virgola mobile a precisione singola (FP32) della GPU NVIDIA A100, garantendo che le richieste computazionali per le simulazioni ingegneristiche e scientifiche siano soddisfatte con un'efficienza accelerata.
Configurazioni ThinkSystem SR675 V3
Lenovo è posizionata strategicamente per supportare l'L40S con la sua nuova linea di server ottimizzati per le nuove GPU. Combinando gemelli digitali completamente simulati con l’intelligenza artificiale generativa, Lenovo mira a migliorare i propri processi aziendali e i risultati della progettazione. La collaborazione tra Lenovo e NVIDIA sul sistema NVIDIA OVX facilita la costruzione e il funzionamento di mondi virtuali, estendendo le capacità del sistema all'intelligenza artificiale generativa e fornendo prestazioni potenti per i data center con carichi di lavoro AI.
ThinkSystem SR675 V3 offre tre configurazioni server in una, che include il supporto per i sistemi NVIDIA HGX A100 a 4 GPU con NVLink e raffreddamento a liquido ibrido Lenovo Neptune. Inoltre, è compatibile con configurazioni da 4 o 8 GPU che includono server NVIDIA L40S, NVIDIA H100 da 80 GB o NVIDIA H100 NVL in un ingombro 3U.
Lenovo vede questi sviluppi come un passo avanti significativo nel semplificare l’implementazione dell’intelligenza artificiale, rendendola accessibile a organizzazioni di tutte le dimensioni e promuovendo l’intelligenza trasformativa in tutti i settori.
Configurazioni ThinkSystem SR675 V3: moduli Base, Dense e HGX
Nell'ambito delle configurazioni dei server AI/HPC, comprendere i compromessi e i vantaggi delle diverse configurazioni è fondamentale per l'ottimizzazione e i requisiti specifici del carico di lavoro. Lenovo ThinkSystem SR675 V3 offre flessibilità con le configurazioni dei moduli Base, Dense e HGX, ciascuna progettata per esigenze particolari.
Modulo base
La configurazione del modulo base si rivolge alle organizzazioni che cercano una combinazione equilibrata di supporto GPU e capacità di archiviazione. Può ospitare fino a 4 persone doppie, a tutta altezza, a tutta lunghezza; GPU FHFL, che utilizzano connessioni PCIe Gen5 x16. Ciò offre discrete capacità di elaborazione parallela per carichi di lavoro di intelligenza artificiale e deep learning.
Dal punto di vista dello storage, il modulo base supporta fino a 8 unità SAS/SATA/NVMe hot swap da 2.5", garantendo un equilibrio tra volume di storage e velocità.
Modulo denso
Per le organizzazioni che danno priorità all'elaborazione GPU parallela, il modulo Dense può supportare fino a 8 GPU a doppia larghezza, altezza e lunghezza intera. Ogni GPU utilizza PCIe Gen5 x16 su uno switch PCIe, massimizzando così il numero di GPU su un singolo server per un'elaborazione parallela migliorata.
Quando si tratta di stoccaggio, il Dense Module è versatile. Supporta fino a 6 SSD EDSFF E1.S NVMe o fino a 4 SSD EDSFF E3.S 1T NVMe HS. Questa configurazione è ideale per scenari in cui attività intense di elaborazione dei dati richiedono più GPU a scapito di una certa flessibilità di archiviazione.
Modulo HGX
La configurazione del modulo HGX è specializzata e mira a esigenze di alte prestazioni con requisiti GPU specifici. Sfrutta NVIDIA HGX H100 con 4 GPU SXM5 connesse a NVLink. Queste GPU SXM5 potrebbero limitare il numero complessivo che è possibile inserire nello chassis, ma offrono prestazioni del chip superiori, rendendole ideali per attività impegnative di intelligenza artificiale e deep learning.
In termini di spazio di archiviazione, il modulo HGX è ottimizzato per la velocità. Può ospitare fino a 4 SSD NVMe hot swap da 2.5" o fino a 4 SSD EDSFF E3.S 1T NVMe HS.
Pensieri di chiusura
Ogni configurazione del modulo del ThinkSystem SR675 V3 ha i suoi punti di forza unici. Sebbene le GPU SXM5 nel modulo HGX offrano prestazioni senza precedenti, le organizzazioni che richiedono una maggiore elaborazione parallela possono optare per il modulo Dense per adattarsi a più GPU PCIe. Tuttavia, ciò comporta una perdita di TDP e un potenziale degrado delle prestazioni. Il modulo base fornisce una via di mezzo, offrendo un equilibrio tra supporto GPU e opzioni di archiviazione. Come sempre, la scelta migliore dipende dai requisiti e dai vincoli specifici dell’attività da svolgere e non elimineremmo mai nessuna di queste configurazioni dal nostro laboratorio.
Interagisci con StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed