En av de mindre kända produkterna Mellanox arbetade med innan NVIDIA-förvärvet var en databehandlingsenhet (DPU) kallad BlueField. Pitch för sex år sedan liknar den idag, vilket ger lagring (och nu acceleratorer) direkt tillgång till nätverket utan traditionell x86-arkitektur i vägen. När allt kommer omkring är CPU:er bättre använda för applikationer än PCIe-trafik körfältshantering. Adoptionen av BlueField har dock gått väldigt långsamt; det finns mindre än en handfull kommersiella satsningar som utnyttjar DPU:er idag. NVIDIA har en ny push för att hjälpa till att ändra det.
En av de mindre kända produkterna Mellanox arbetade med innan NVIDIA-förvärvet var en databehandlingsenhet (DPU) kallad BlueField. Pitch för sex år sedan liknar den idag, vilket ger lagring (och nu acceleratorer) direkt tillgång till nätverket utan traditionell x86-arkitektur i vägen. När allt kommer omkring är CPU:er bättre använda för applikationer än PCIe-trafik körfältshantering. Adoptionen av BlueField har dock gått väldigt långsamt; det finns mindre än en handfull kommersiella satsningar som utnyttjar DPU:er idag. NVIDIA har en ny push för att hjälpa till att ändra det.
Varför DPU:er i första hand?
DPU:ns tjusning är ganska fascinerande, och det är därför NVIDIA satsar hårt på sin framgång. Jämfört med det mer traditionella höghastighets-Ethernet NIC som de flesta känner till och älskar, har DPU:er helt enkelt mer processorkraft ombord, vilket gör att de ser mer ut som minidatorer än fordon för datarörelse. För att vara rättvis, men i samband med lagring är DPU:s huvudmål att flytta data snabbt. Det är bara det att nu kan den här åtgärden göras i en JBOF, utan att någon x86 behövs alls.
NVIDIA DPU i VAST Data Node
Vi har sett detta nyligen i några fall, ett använder NVIDIA-produkten och ett annat rullar sin egen DPU. VAST Data utnyttjar NVIDIA DPU i sina datanoder, som nu är extremt täta 1U-boxar som kan dela 675TB råblixt. Det finns dock alternativa vägar; Fungible har en plan för disaggregering och utnyttjar sin egen DPU. Vi har haft deras lagringsuppsättning i labbet, och de har också nyligen meddelat en GPU-ansträngning.
Fungible Storage Array – DPU:er inuti
Om allt detta DPU-konversation låter överväldigande är det svårt att skylla på dig. Det har inte skett någon grundläggande förändring i hur data hanteras och flyttas på väldigt länge. Vi har en podcast med NVIDIA på DPU:er ur ett lagringsperspektiv är det en bra grund för vad som händer på marknaden.
DPU:er är hårda
Även efter sex års eller mer arbete har vi bara sett två exempel på DPU:er som fungerar bra praktiskt och kan antagligen nämna färre än en handfull företag som till och med prövat förbi labbvalidering. Varför är det så? Vad vi får höra av systemleverantörer är det verkligen svårt att utnyttja BlueField. Det finns en enorm mängd mjukvaruarbete att göra, och hittills är korten inte en enkel drop-and-go-produkt, så lyftet är mycket tyngre. Koppla ihop detta och det faktum att traditionella lagringsföretag är ovilliga att ta till sig ledande teknik i kombination med att varje DPU kräver en annan kodningsmetod och vi har lite DPU-antagande.
NVIDIA inser naturligtvis detta och behöver desperat snabbare fordon för att flytta data till sina GPU:er. För att vara rättvis vill kunderna detta också, särskilt i HPC-arbetsbelastningar där att hålla dyra GPU-investeringar i drift på heltid är ett prismål. Så NVIDIA igår har ansträngt sig för att hjälpa till att lindra denna adoptionssmärta.
NVIDIA har blivit en av grundarna av Linux Foundations Open Programmable Infrastructure-projekt (OPI). I grunden har NVIDIA gjort sina API:er för DOCA-nätverksprogramvara allmänt tillgängliga. Det betyder att det tunga integrationsarbetet för att få drift på en DPU kan tänkas vara snabbare nu.
"OPI-projektet syftar till att skapa ett gemenskapsdrivet, standardbaserat, öppet ekosystem för att accelerera nätverk och andra datacenterinfrastrukturuppgifter med hjälp av DPU:er", enligt en blogginlägg från NVIDIA. Detta är naturligtvis en bra sak. Organisationer och systemleverantörer som tidigare tyckte att DPU-väggen var för hög för att hoppa borde nu ha en mycket enklare väg mot DPU-antagande.
NVIDIA fortsatte med att dela vad de tänker tillhandahålla;
Vad är nästa för DPU:er?
Baserat på vad vi har sett från VAST och Fungible är DPU-världen väldigt verklig och redo att göra en massiv inverkan på datacentret och molnet. Adoptionen har varit utmanande eftersom mjukvaruintegrering är svårt. Vidare är hårdvaran inte en drop-in ersättning för NIC. Inte för att den är placerad för att vara så, men det här är inte som att gå från 25GbE till 200GbE genom att byta nätverkskort. Ansträngningen att integrera DPU:er är inte i närheten av trivial.
NVIDIA DPU
Initiativ som detta borde hjälpa industrin på väg, även om det bara är på NVIDIA-kisel. DPU:er erbjuder så mycket potential när det gäller att göra infrastrukturen snabbare, säkrare och i slutändan mer effektiv. Med nästan alla stora organisationer som arbetar med gröna initiativ är datacentret ett bra ställe att börja anamma moderna infrastrukturer som inte har samma beroenden som den äldre stacken.
Vi är hoppfulla att detta steg mot öppen källkod skakar fri DPU-loggjam eftersom det som är möjligt med den här tekniken är ganska anmärkningsvärt.
Engagera dig med StorageReview
Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | TikTok | Rssflöde