Uno dei prodotti meno conosciuti su cui Mellanox stava lavorando prima dell'acquisizione di NVIDIA era un'unità di elaborazione dati (DPU) denominata BlueField. La proposta di sei anni fa è simile a quella di oggi, offrendo allo storage (e ora agli acceleratori) l'accesso diretto alla rete senza l'intralcio della tradizionale architettura x86. Dopotutto, le CPU sono meglio utilizzate per le applicazioni rispetto alla gestione delle corsie di traffico PCIe. Tuttavia, l'adozione di BlueField è stata molto lenta; oggi ci sono meno di una manciata di iniziative commerciali che sfruttano le DPU. NVIDIA ha una nuova spinta per contribuire a cambiare la situazione.
Uno dei prodotti meno conosciuti su cui Mellanox stava lavorando prima dell'acquisizione di NVIDIA era un'unità di elaborazione dati (DPU) denominata BlueField. La proposta di sei anni fa è simile a quella di oggi, offrendo allo storage (e ora agli acceleratori) l'accesso diretto alla rete senza l'intralcio della tradizionale architettura x86. Dopotutto, le CPU sono meglio utilizzate per le applicazioni rispetto alla gestione delle corsie di traffico PCIe. Tuttavia, l'adozione di BlueField è stata molto lenta; oggi ci sono meno di una manciata di iniziative commerciali che sfruttano le DPU. NVIDIA ha una nuova spinta per contribuire a cambiare la situazione.
Perché le DPU in primo luogo?
Il fascino della DPU è piuttosto affascinante, ed è per questo che NVIDIA sta investendo molto nel suo successo. Rispetto alle più tradizionali NIC Ethernet ad alta velocità che molti conoscono e amano, le DPU hanno semplicemente più potenza di elaborazione a bordo, facendole assomigliare più a mini-computer che a veicoli di trasferimento dati. Ad essere onesti, tuttavia, nel contesto dello storage, l’obiettivo principale delle DPU è spostare rapidamente i dati. È solo che ora questa azione può essere eseguita in un JBOF, senza che sia necessario x86.
Lo abbiamo visto di recente in alcuni casi, uno che utilizzava il prodotto NVIDIA e un altro che utilizzava la propria DPU. VAST Data sta sfruttando il DPU NVIDIA nei loro nodi dati, che ora sono box 1U estremamente densi in grado di condividere 675 TB di flash raw. Esistono però percorsi alternativi; Funtable ha un piano di disaggregazione, sfruttando la propria DPU. Li abbiamo avuti array di archiviazione in laboratorio, e hanno anche recentemente annunciato a Sforzo della GPU.
Se tutta questa conversazione sulla DPU sembra travolgente, è difficile darti la colpa. Non c’è stato un cambiamento fondamentale nel modo in cui i dati vengono gestiti e spostati da molto tempo. Noi abbiamo un podcast con NVIDIA su DPU dal punto di vista dell’archiviazione è un’ottima introduzione a ciò che sta accadendo nel mercato.
Le DPU sono difficili
Anche dopo sei anni o più di lavoro, abbiamo visto solo due esempi di DPU che funzionano bene sul campo e possiamo nominare probabilmente meno di una manciata di aziende che si dilettano anche dopo la convalida di laboratorio. Perché? Da quello che ci viene detto dai fornitori di sistemi, è davvero difficile sfruttare BlueField. C’è un’enorme quantità di lavoro software da svolgere e, ad oggi, le carte non sono un semplice prodotto drop-and-go, quindi il passaggio è molto più pesante. Se a questo aggiungiamo il fatto che le aziende di storage tradizionali sono riluttanti ad abbracciare la tecnologia all’avanguardia combinata con ogni DPU che richiede un approccio di codifica diverso, l’adozione delle DPU è scarsa.
NVIDIA lo riconosce, ovviamente, e ha un disperato bisogno di veicoli più veloci per spostare i dati nelle proprie GPU. Per essere onesti, anche i clienti vogliono questo, soprattutto nei carichi di lavoro HPC dove mantenere operativi a tempo pieno i costosi investimenti nella GPU è un obiettivo di prezzo. Quindi NVIDIA ieri ha fatto uno sforzo per alleviare questo dolore di adozione.
NVIDIA è diventata membro fondatore del progetto Open Programmable Infrastructure (OPI) della Linux Foundation. Fondamentalmente, NVIDIA ha reso ampiamente disponibili le API del suo software di rete DOCA. Ciò significa che ora il pesante lavoro di integrazione per rendere operativa una DPU dovrebbe essere più veloce.
Il "progetto OPI mira a creare un ecosistema aperto, guidato dalla comunità, basato su standard per accelerare le attività di rete e altre attività infrastrutturali del data center utilizzando DPU", secondo un post sul blog da NVIDIA. Questa è, ovviamente, una buona cosa. Le organizzazioni e i fornitori di sistemi che in precedenza ritenevano che il muro della DPU fosse troppo alto per essere superato, ora dovrebbero avere un percorso molto più semplice verso l’adozione della DPU.
NVIDIA ha continuato a condividere ciò che intende fornire;
Qual è il futuro delle DPU?
Sulla base di ciò che abbiamo visto da VAST e Funtable, il mondo DPU è molto reale e pronto ad avere un impatto enorme sul data center e sul cloud. L’adozione è stata impegnativa perché l’integrazione del software è difficile. Inoltre, l'hardware non è un sostituto immediato delle schede NIC. Non che sia posizionato per essere così, ma non è come passare da 25GbE a 200GbE scambiando le schede NIC. Lo sforzo per integrare le DPU non è affatto banale.
Iniziative come questa dovrebbero aiutare il settore, anche se solo sul silicio NVIDIA. Le DPU offrono un potenziale enorme quando si tratta di rendere l'infrastruttura più veloce, più sicura e, in definitiva, più efficiente. Poiché quasi tutte le grandi organizzazioni lavorano su iniziative ecologiche, il data center è un buon posto per iniziare ad abbracciare infrastrutture moderne che non hanno le stesse dipendenze dello stack legacy.
Ci auguriamo che questo passaggio verso l’open source risolva gli ostacoli della DPU perché ciò che è possibile fare con questa tecnologia è davvero notevole.
Interagisci con StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | TikTok | RSS feed