Lär dig hur du konfigurerar Proxmox vGPU för AI, VDI och rendering med steg-för-steg-inställning, testning och prestandainsikter.
Proxmox Server Solutions tillkännagav nyligen NVIDIA vGPU-stöd för deras Virtual Environment (VE) hypervisor, vilket låser upp en helt ny värld av GPU-acceleration för rendering, VDI, AI och andra applikationer. Följ med oss när vi granskar och guidar dig genom hypervisorns nya funktionsuppsättning och utvärderar dess prestanda.
Vad är grejen med vGPU-stöd?
Om du inte är bekant med NVIDIAs vGPU-programvara, tillåter den att en GPU:s dator- och minnesresurser partitioneras och distribueras mellan flera virtuella maskiner (VM). I den här inställningen växlar de virtuella datorerna med hjälp av GPU:s processorkraft och allokerar en del av kortets minne för deras behov. Detta tillvägagångssätt gör det möjligt för GPU:n att upprätthålla toppanvändning, även när arbetsbelastningen för gäst-VM:erna varierar i intensitet.
Innan vi börjar... (Förutsättningar)
Du behöver några saker innan du skapar en GPU-virtualiseringsmiljö i Proxmox VE (PVE). Liksom många datacentergodis är NVIDIAs vGPU-programvara inte gratis. Du måste inköp or registrera dig för utvärderingsversionen av deras virtuella GPU-programvara och skapa ett NVIDIA Enterprise-konto. Därefter måste du få en vGPU-kompatibelt kort och ladda ner lämpliga drivrutiner från licensportal. Ta de aktuella versionerna av "Linux KVM"-drivrutinerna. Ladda ner åtminstone dessa:
- vGPU-programvara: 18.0
- Värddrivrutin: 570.124.03
- Linux gästdrivrutin: 570.124.06
- Windows gästdrivrutin: 572.60
Vi utnyttjade NVIDIA L40S och en Dell PowerEdge R760 för detta projekt.
Dessutom behöver du en dedikerad licensserver (DLS) eller molnlicensserver (CLS) för att aktivera vGPU-funktionalitet på dina gäster. Du hittar en snabbstartsguide genom att klicka här..
Kontrollera sedan att din servers UEFI (BIOS)-inställningar aktiverar rätt virtualiseringsfunktioner. Söka efter VT-d or AMD-v, SR-IOV, över 4G-avkodning, storleksändringsbar baroch Tolkning av alternativ routing-ID (ARI) inställningar och se till att alla är aktiverade.
Notera: Du kanske inte hittar alla dessa funktioner i UEFI-menyn, eftersom vissa kanske inte exponeras för användaren.
Kontrollera sist att du använder en lämplig version av Proxmox VE. vGPU-funktionalitet kräver, åtminstone, pve-manager version 8.3.4, med kärna 6.18.12-8-pve eller nyare. Du kan kontrollera din PVE-nods programvaruversioner genom att navigera till fliken "Sammanfattning" på önskad server, som visas nedan:
Värden med mest (Proxmox Host vGPU Setup)
Nu när allt är klart är det dags att konfigurera Proxmox VE-servern. I din Proxmox VE-servers webbgränssnitt, klicka på servernamnet till vänster på skärmen och välj fliken "Shell". Skriv det här kommandot i konsolfönstret som visas och tryck på Enter när du är klar:
apt installera pve-nvidia-vgpu-helper
Detta säkerställer att vGPU-installationsverktyget är installerat på din server, vilket förbereder det för Proxmox vGPU-stöd. När servern har avslutat installationen av skriptet eller informerat dig om att det redan finns, kör ett kommando till för att köra verktyget.
pve-nvidia-vgpu-helper-inställning
Svara "Y" på alla frågor och fortsätt tills konsolfönstret kommer tillbaka och skriptet är klart. Utför en snabb omstart av servern genom att navigera till serverns "Sammanfattning"-flik och trycka på "Reboot"-knappen, eller skriv omstartkommandot i "Shell"-flikens konsol och tryck på Enter.
Därefter måste NVIDIAs vGPU-värddrivrutin laddas på servern. När servern har slutfört omstarten, använd ett SSH- eller SCP-överföringsverktyg som t.ex WinSCP för att kopiera värddrivrutinen till noden.
Notera: Om du laddade ner alla drivrutiner tillsammans som en komprimerad (.zip)-mapp, kan du behöva extrahera dess innehåll först och välja filen ".run" från mappen "Host_Drivers".
Placera filen i serverns "/home"-katalog och förbered dig för att köra installationsprogrammet med följande kommandon.
cd /home chown root NVIDIA-Linux-x86_64-570.124.03-vgpu-kvm.run chmod +X NVIDIA-Linux-x86_64-570.124.03-vgpu-kvm.run ./NVIDIA-Linux-x86_64-570.124.03-vgpu-kvm.run --dkms
Notera: Ersätt "NVIDIA-Linux-x86_64-570.124.03-vgpu-kvm.run" med det faktiska namnet på drivrutinen du laddade ner. Du kan använda kommandot "ls" för att visa filens namn när den har placerats i "/home"-katalogen.
Nu när drivrutinen har installerats på servern är vi bara några steg ifrån att ha värdsidan av vår Proxmox vGPU-konfiguration klar! Innan vi kan markera GPU:n som en enhet som kan delas mellan virtuella maskiner måste vi aktivera Single Root I/O Virtualization (SR-IOV). NVIDIA definierar denna funktion som "...en teknik som gör att en fysisk PCIe-enhet kan presentera sig själv flera gånger via PCIe-bussen. Denna teknik möjliggör flera virtuella instanser av enheten med separata resurser." Eftersom SR-IOV är en viktig del av tekniken som behövs för grundläggande vGPU-funktioner på moderna GPU:er, ställ in den så att den slås på vid uppstart med följande kommando:
systemctl aktivera --now [e-postskyddad]
Slutligen kan vi kartlägga GPU:s resurser för att dela dem snyggt mellan virtuella datorer. På Proxmox VE-serverns webbgränssnitt klickar du på "Datacenter" i det övre vänstra hörnet och scrollar ner för att välja fliken "Resursmappningar".
Klicka på knappen "Lägg till" under avsnittet "PCI-enheter" på sidan och fyll i fältet "Namn:" i nästa fönster med namnet som beskriver den GPU du mappar.
Markera sedan rutan märkt "Använd med medierade enheter" och se till att rullgardinsmenyn "Mappning på nod" innehåller servern med GPU:n som mappas. Rulla nedåt i listan över enheter och bekräfta att alla enhets-ID har "NVIDIA Corporation" i kolumnen "Vendor". Om detta är sant, klicka på kryssrutan längst upp till vänster i tabellen för att välja alla enheter; Annars väljer du bara enheter med "NVIDIA Corporation" som leverantör.
Notera: Om flera GPU:er är installerade i ditt system kan du använda kommandot "lspci" i "Shell"-fliken på önskad server för att fastställa ID:n som följer med varje kort.
När du har valt enheten klickar du på knappen "Skapa" längst ned till höger i popup-fönstret för att bekräfta ditt val. Din NVIDIA GPU är nu redo att delas upp i vGPU:er för gästerna på din Proxmox VE-server!
Betjäna gästerna (tilldela vGPU:er till virtuella maskiner)
Delarna är alla på plats för att vi ska börja tilldela och använda vGPU:er på våra virtuella maskiner. Börja med att skapa en ny virtuell maskin, som vanligt, eller genom att använda en befintlig virtuell dator. För vår demonstration kommer vi att använda en virtuell Windows Server 2025-maskin.
I Proxmox VE-serverns webbgränssnitt, stäng av den virtuella maskinen med valfri metod (noVNC-konsol, gästströmmeny, etc.), och klicka på gästens "Hårdvara"-flik.
I rullgardinsmenyn som visas efter att du klickat på knappen "Lägg till", välj en "PCI-enhet."
I popup-fönstret "Lägg till: PCI-enhet" väljer du namnet du tilldelade den resursmappade GPU:n i fältet "Enhet:".
Klicka sedan på fältet "MDev Type:" och observera listan över presenterade alternativ för förmedlad enhetstyp. Du kanske märker att varje val har en siffra och bokstavsbeteckning. Siffran representerar mängden VRAM som tilldelats gästen (i gigabyte), medan "A", "B" och "Q" refererar till användningsfallet för vGPU:n:
- F – Virtuella arbetsstationer med RTX Enterprise-drivrutiner (kräver RTX vWS-licens)
- B – Virtuella stationära datorer (kräver NVIDIA Virtual PC-licens eller RTX vWS-licens)
- A – Applikationslösningar (kräver en NVIDIA Virtual Applications-licens)
Notera: Du kan läsa mer om de olika vGPU-profilerna och deras nödvändiga licenser här..
För den här demonstrationen använde vi profilen "NVIDIA L40S-12Q". När du har valt din önskade förmedlade enhetstyp, avsluta med att markera kryssrutan "PCI-Express" och klicka på den blå "Lägg till"-knappen.
Den virtuella datorn har nu en vGPU tilldelad, men vi behöver fortfarande installera gästdrivrutinen och en licensieringstoken för att få saker att rulla på. Du kan nu slå på den virtuella maskinen och logga in.
Efter att ha loggat in överför du NVIDIA vGPU-gästdrivrutinen som du har förvärvat tidigare från licensportal till den virtuella datorn på vilket sätt du vill (SMB, SCP, direkt nedladdning, etc.). Alternativt kan du skapa och ladda upp en virtuell CD-ROM-fil (.iso) som innehåller drivrutinen till din PVE-servers lagring med programvara som t.ex. ImgBurn att distribuera många vGPU-aktiverade gäster samtidigt.
Kör drivrutinsinstallationsfilen genom att dubbelklicka på den körbara filen och följ instruktionerna på installationsmenyn som visas.
Extrahera drivrutinen till standardplatsen i fältet "Extraktionssökväg:" och välj installationsalternativet "Express" när du uppmanas att göra det.
När installationen av drivrutinen är klar, klicka på knappen "STÄNG" för att stänga menyn.
Därefter måste vi aktivera vGPU-licensen på gästen. Aktiveringsmetoderna kan skilja sig betydligt beroende på om du väljer en dedikerad licensserver (DLS) eller molnlicensserver (CLS) och ditt operativsystem. Följ NVIDIAs Snabbstartguide för licenssystem och Användarhandbok för klientlicenser för detaljerade steg för att aktivera klienter för din specifika installation.
Vi använde en molnlicensserver och fick en tokenfil att placera på gästerna för aktivering. Flytta den här filen till gästen och kopiera den till mappen "C:\Program Files\NVIDIA Corporation\vGPU Licensing\ClientConfigToken".
Därefter är en omstart av gästen nödvändig för att slutföra aktiveringsprocessen.
Efter alla värd- och gästkonfigurationssteg som beskrivs här, bör du vara redo att köra program och applikationer som kräver en GPU. Glöm inte att aktivera Remote Desktop Protocol (RDP) eller installera din favoritprogramvara för fjärrskrivbord på dina gäster efter omstarten för att njuta av GPU-accelererad fjärrvisning godhet!
Varva motorn (provar Proxmox vGPU)
Nu när vi har några virtuella servrar med virtuella grafikprocessorer, låt oss ta dem en sväng! Var och en av våra virtuella datorer har konfigurerats med 8 stiftade Intel Xeon Platinum 8580 vCPU:er (4 hypertrådade kärnor), 32 gigabyte DDR5 4800 MT/s registrerat ECC RAM och NVIDIA L40S-12Q (virtuell arbetsstation) vGPU-profil på 12 gigabyte. Du kan se de virtuella maskinernas fullständiga hårdvarukonfiguration nedan:
Cinebench 2024
Baserat på Maxons Cinema 4D-modellering och animeringsprogram, erbjuder Cinebench 2024 en intressant och objektiv titt på renderingsprestanda på vGPU:er. Låt oss jämföra L40S:s fulla styrka i dess profil "48Q" (alla 48 gigabyte VRAM) med en virtuell maskin jämfört med fyra virtuella datorer som kör profilen "12Q".
Även om det inte är så meningsfullt att ha en virtuell maskin som hänger ihop hela L40S, kan vi se att prestandan är imponerande med 21,147 2,514 poäng i singelpassets GPU-riktmärke. Men att dela upp GPU:n på fyra sätt visar effekten av NVIDIAs tidsdelningsmetod för att dela GPU:s CUDA-kärnor, med individuella poäng som sträcker sig från 2,567 XNUMX till XNUMX XNUMX när riktmärket kördes samtidigt över alla virtuella datorer.
Om testet körs om på en enda virtuell maskin med profilen "12Q", och de andra tre virtuella datorerna går på tomgång, höjs poängen tillbaka till 15,133 XNUMX. Det är inte precis en återgång till hela GPU:s poäng, men det är fortfarande respektabelt för en partitionerad vGPU.
Blenderbenchmarks
Låt oss fortsätta med några fler renderingsriktmärken med Blender. Efter liknande trender som Cinebench 2024, resulterar en uppdelning av GPU:n på fyra sätt i dramatiskt lägre total prestanda jämfört med en enda virtuell maskin som kör samma arbetsbelastning i samma profil.
Som demonstrerats i Monster-riktmärket innebär bara fyra virtuella datorer som delar GPU:s beräkningskraft att individuell renderingsprestanda kan vara så lite som 8 % av en enda virtuell dator med samma profil. Vi såg dock att en virtuell maskin fick ett stort försprång på de andra – upp till 2.4 gånger den sämsta prestationspoängen.
Junkshop- och Classroom-riktmärkena berättar liknande historier, med stora nedgångar i prestanda för tre av de fyra virtuella datorerna och en enda gäst får mycket högre poäng än de andra.
Intressant nog verkar det vara korta ögonblick då en virtuell maskins vGPU ges högre prioritet och tar en betydande ledning. Till exempel, under klassrummets benchmark, uppnådde vår andra Windows Server 2025 VM (WIN2025-2) mer än tredubbla prestanda från sina kamrater trots att den kördes samtidigt. Även om vi inte exakt kan avgöra om detta beror på vGPU-mjukvarans schemaläggning eller själva GPU:ns natur, lyfter det fram några konstigheter i prestanda som är synonymt med NVIDIAs tillvägagångssätt med enbart tidsdelning med detta kort.
Slutsats
Installation och support för NVIDIAs vGPU-programvara kanske inte är lika snyggt som andra konkurrerande plattformar. Ändå är det en spännande och värdefull funktion för organisationer och hemmakare som redan kör Proxmox Virtual Environment-system. Även om prestandan minskar avsevärt när de delar upp GPU-resurser, drar många organisationer fortfarande nytta av NVIDIAs vGPU-teknik och har bestämt att dela en GPU uppväger denna nackdel. Denna attityd har antagits av många hyperskalare och utrymmesbegränsade datacenter, där att fylla på så många hyresgäster (i det här fallet virtuella maskiner med vGPU) till minsta möjliga fotavtryck är det mest effektiva och lönsamma alternativet.
Proxmox Server Solutions senaste och snabba expansion av funktioner som mjukvarudefinierat nätverk, stöd för Linux 6.11-kärnan och ett dedikerat datacenterhanteringssystem visar betydande framsteg och bevisar att det håller på att bli ett giltigt val inom hypervisorarenan. Vi hoppas att se fortsatt utveckling i detta utrymme och ser fram emot att berätta mer om spännande verktyg och tekniker som kommer till PVE snart!
Engagera dig med StorageReview
Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Rssflöde