Hem konsumenten Att börja med AI: När en speldator blir ett läromedel

Att börja med AI: När en speldator blir ett läromedel

by Kevin OBrien

Med AI-förbättrad programmering på frammarsch finns det anledning att ge dina barn en kraftfullare dator- och grafikplattform.

Med AI-förbättrad programmering på frammarsch finns det anledning att ge dina barn en kraftfullare dator- och grafikplattform. Ja, det finns fördelar, som att spela de senaste spelen, men en framväxande fördel är möjligheten att rulla ut avancerade AI-verktyg och lokala LLM:er lokalt på systemet. Detta står i skarp kontrast till de ingångsplattformar som många vanligtvis börjar på, vilka är begränsade till enbart webbsurfning eller produktivitetsprogramvara. I den här artikeln undersöker vi hur en speldator – fullpackad med en avancerad GPU och snabb lagring – kan fungera som både en elitspelinställning och en effektiv plattform för att lära sig koda med AI.

Idén med ett spelsystem som förvandlats till AI-arbetsstation är inte ny; vi närmade oss en del av detta ämne i en artikel förra året som täckte skillnaderna mellan Dell Alienware R16 och Dell Precision 5860. Även om den artikeln fokuserade på prestandaskillnaderna mellan GPU:er och drivrutiner av konsument- och arbetsstationsgrad över ett brett spektrum av arbetsbelastningar, kommer den här artikeln att fokusera på varför ett spelsystem kan tillföra värde för någon som lär sig med AI. Verktygen som utnyttjar AI saktar inte heller ner, med många tillkännagivanden centrerades kring de nya NVIDIA 50-seriens GPU:er.

Om du har ett barn i en grundskola, kommer det medföljande systemet i allmänhet att vara en grundläggande Chromebook. Dessa plattformar har fördelar ur kostnad, servicebarhet och tillgång till teknik, men de fungerar inte bra för avancerade användningsfall. Gå in på hemmaspeldatorn, som kan erbjuda otaliga timmar av spelkul men är utrustad med en del av den mest kostnadseffektiva hårdvaran för AI-utvecklingsarbete.

Det här började med att min 11-åring frågade om han kunde använda AI för att göra ett videospel. Med lite hjälp presenterade jag honom för Abacus.AI och visade honom hur man skapar en textuppmaning för att skriva Python-kod, installera Python på Windows och köra spelen han designade. Detta skedde under 15 minuter. Han hade ingen erfarenhet av programmering, och jag tror att detta var första gången jag hade installerat en Python-miljö på Windows. Det var ganska anmärkningsvärt att bevittna på egen hand.

Börjar med pythonprogrammering med AI

Han var på gång med olika spelidéer att prova. Textpromptspel var först, som stenpappersaxar, men det utvecklades till ett plattformsspel med ett GUI. Den första versionen var ett litet rött block som kunde studsa när spelet startade och behövde lite fysikhjälp. Det utvecklades snabbt till en sengångare som hoppade över plattformar.

Börjar med pythonprogrammering med AI: Sloth Runner

Den slutliga versionen av det spelet förvandlades till ett äventyrsspel för sengångare och capybara med karaktärer som hoppade över vatten fyllt med alligatorer. Det var en overklig upplevelse att bevittna, men det driver hem poängen att barn kan göra häpnadsväckande saker med de rätta verktygen framför sig.

Börjar med pythonprogrammering med AI: Sloth jumping alligatorer

I den här artikeln kommer vi att utforska några områden av AI som enkelt kan utforskas i en hemmiljö för både yngre och äldre publik. Molnbaserade AI-erbjudanden som Abacus AI, OpenAI och andra är lätta att starta och kräver ingen specialiserad hårdvara. Dessa AI-verktyg erbjuder ett brett utbud av text, bilder, video och otaliga andra modeller.

Molnbaserade AI-lösningar

Molnbaserade AI-lösningar har revolutionerat hur vi interagerar och lär oss av artificiell intelligens. Dessa plattformar ger tillgång till banbrytande modeller utan att användarna behöver investera i dyr hårdvara – populära alternativ som ChatGPT och Anthropics Claude. Men en plattform som sticker ut för sin mångsidighet och värde är Abacus.ai.

Abacus AI-programmering

Till exempel tillåter CodeLLM användare att koda direkt i en online-IDE medan de interagerar med en chatbot för hjälp i realtid. Den här funktionen är perfekt för nybörjare som lär sig koda eller erfarna utvecklare som vill prototyper snabbt. Code Playground-funktionen tar det längre genom att göra det möjligt för användare att köra sin kod direkt i webbläsaren, vilket eliminerar behovet av lokal installation. Detta är särskilt användbart för att skapa interaktiva animationer.

Abacus inkluderar också förmågor som Deep Research, som integrerar AI i forskningsarbetsflöden, och en AI-ingenjör, som automatiskt kan skapa bots för specifika uppgifter. Dessa funktioner gör det enkelt att komma igång med AI, oavsett om du utforskar kodning, genererar bilder eller bygger interaktiva applikationer. Även en grundläggande bärbar dator eller Chromebook kan bli ett kraftfullt inlärningsverktyg för föräldrar eller pedagoger när de paras ihop med en molnbaserad lösning som Abacus.AI.

Lokal AI

En naturlig fråga uppstår: om molnbaserade lösningar är så billiga, tillgängliga och enkla att använda, varför ens bry sig om lokal AI? Svaret ligger i de unika fördelarna som lokal AI erbjuder, vilket kan göra det till ett övertygande val för specifika användare, särskilt de med avancerade speldatorer eller en önskan om mer kontroll över deras AI-arbetsflöden.

Svaret ligger i integritet, kontroll och tillgänglighet. Att köra AI-modeller lokalt säkerställer att din data stannar på din maskin, erbjuder oöverträffad integritet och är idealisk för känsliga projekt eller personligt bruk. Den ger även åtkomst offline, vilket gör den tillförlitlig i områden med dålig anslutning eller under serveravbrott. För tunga användare kan lokal AI vara mer kostnadseffektiv i längden, eftersom det inte finns några återkommande avgifter för användning när hårdvaran väl är inställd. Lokal AI erbjuder också frihet och flexibilitet. Du kan anpassa och finjustera modeller, experimentera med alternativ med öppen källkod och till och med träna dina modeller. Dessutom kommer ett praktiskt tillvägagångssätt att hjälpa till att bygga upp värdefulla tekniska färdigheter.

Hårdvarukrav

Att köra lokal AI kommer att ha vissa hårdvaruutmaningar, vilket är anledningen till att ämnet att återanvända ett spelsystem för det är vettigt. Medan vissa lokala AI-sviter kan utnyttja en CPU, som vi diskuterar nedan, föredrar nästan alla en GPU, särskilt NVIDIA. För närvarande är NVIDIA GPU:er de mest populära, med VRAM som en grindfaktor. Med 40-seriens NVIDIA GeForce-sortiment som ett exempel, delar vi upp hur mycket VRAM varje kort har:

  • NVIDIA GeForce RTX 4050 (8GB VRAM)
  • NVIDIA GeForce RTX 4060 (12GB VRAM)
  • NVIDIA GeForce RTX 4070 (16GB VRAM)
  • NVIDIA GeForce RTX 4080 (20GB VRAM)
  • NVIDIA GeForce RTX 4090 (24GB VRAM)

Generellt sett, när du ökar modellstorleken eller precisionen på modellen, ökar VRAM-kraven. Här är en uppdelning av DeepSeek R1-modellerna som sträcker sig från 1.5B till 70B i storlek och FP4 till FP8 precisionsnivåer. Du kommer snabbt att inse att de flesta konsument-GPU:er kommer att vara begränsade till mindre modellstorlekar. VRAM-fotavtrycket kommer också att variera beroende på vad du gör med modellen, så du behöver lite utrymme.

DeepSeek R1 modellstorlek Inferens VRAM (FP8) Inferens VRAM (FP4)
1.5B ~ 1.5 GB ~ 0.75 GB
7B ~ 7 GB ~ 3.5 GB
8B ~ 8 GB ~ 4 GB
14B ~ 14 GB ~ 7 GB
32B ~ 32 GB ~ 16 GB
70B ~ 70 GB ~ 35 GB

Kör DeepSeek R1 eller Llama 3.1 lokalt med Ollama

Ollama är en av de mer enkla metoderna för att distribuera en lokal LLM. Ollama är användarvänlig, vilket gör den tillgänglig även för dem som inte är djupt tekniska. Dess gränssnitt förenklar processen att ladda ner, hantera och interagera med stora språkmodeller (LLM). På Windows är det enkelt att installera Ollama. Gå till Ollamas hemsida, klicka på ladda ner (välj ditt operativsystem) och kör sedan den installationsfilen.

Ollama webbplats skärmdump

När det väl har installerats låter Ollamas kommandoradsgränssnitt (CLI) användare enkelt dra och köra modeller med enkla kommandon, såsom ollama pull och ollama spring . Detta kan nås genom att klicka på Windows Start-knappen, skriva "cmd" och ladda din kommandotolk. Nedan är ett exempel som visar modeller som redan laddats ner på systemet, startar DeepSeek R1 14B och skriver en berättelse om en sengångare som bygger ett hus.

Ollama kör DeepSeek R1 LLM

Utöver CLI erbjuder Ollama också Ollama Hub, ett webbaserat gränssnitt som ger en användarupplevelse som liknar moln AI-lösningar, vilket gör det tillgängligt även för dem som föredrar ett grafiskt gränssnitt.

Ollamas omfattande samhällsstöd och snabba utvecklingscykel gör det särskilt tilltalande. Det finns också fördelen att det tar några sekunder att installera det, och att det går lika snabbt att få någon att uppdatera sig om att ladda ner eller köra modeller. Den mest långvariga förseningen för de flesta användare kommer att vara deras internethastighet, eftersom många av dessa modeller är många GB stora.

Datorresurser som kör lokal LLM

Det är viktigt att notera att om du tänker köra en lokal LLM, kommer varje modell att ha olika systemkrav, med en GPU som mycket föredras för att köra saker effektivt. Ollama kör DeepSeek R1 14B-modellen i systemresursbilden ovan, som använder knappt 11 GB VRAM. Medan modellen är laddad, sitter GPU:n inaktiv, men användningen kommer att öka så fort du börjar interagera med den.

Köra LLM på lägre hårdvara: Kvantiserade modeller

Kvantiserade modeller erbjuder en praktisk lösning för användare som arbetar med lägre VRAM GPU:er. Dessa är i huvudsak komprimerade versioner av LLM:er som minskar minneskraven, vilket gör att de kan köras på mindre kraftfulla GPU:er. Även om kvantisering kommer på bekostnad av viss prestanda och noggrannhet, gör den körning av avancerade modeller mer tillgänglig för ett bredare utbud av hårdvara.

Det är också möjligt att köra LLM på processorer, även om detta kommer med en ytterligare prestandaavvägning. CPU-baserad utförande är betydligt långsammare än GPU-baserad bearbetning, men det kan fortfarande vara ett gångbart alternativ för mindre modeller eller användare utan tillgång till en dedikerad GPU.

LLAMA.CPP

En av de mest populära förmågorna för att köra LLM på processorer är call.cpp, en inbyggd C++-applikation designad för effektiv slutledning av stora språkmodeller. Trots sitt namn är llama.cpp inte begränsad till LLaMA-modeller. Dess lätta design och optimering för CPU-användning gör den till ett utmärkt val för användare som vill experimentera med lokal AI på blygsam hårdvara. Genom att stödja kvantiserade modeller minskar llama.cpp ytterligare resurskraven, vilket gör att även hårdvara av konsumentklass kan köra avancerade LLM:er effektivt.

Stabil bildgenerering med ComfyUI

För lokal bildgenerering är ComfyUI ett enkelt sätt att komma igång. Vi följde efter guiden om stabil diffusionsart för att få igång instansen. Stegen innebär att ladda ner ComfyUI-instansen i ett bärbart 7z-arkiv, extrahera mappen och ladda ner en befintlig modellkontrollpunkt.

Mapp som visar ComfyUI

Att köra ComfyUI är lite annorlunda än Ollama LLM. Öppna mappen med ComfyUI-instansen och den sparade kontrollpunkten, dubbelklicka sedan på antingen run_cpu-filen om du har ett system med integrerad grafik eller low-end grafik eller run_nvidia_gpu om du har ett kraftigt dedikerat NVIDIA-grafikkort.

ComfyUI batchfil för NVIDIA GPU:er

Det kommer sedan att ladda en kommandotolk i bakgrunden. Det ser relativt komplicerat ut men laddar snabbt en länk till din standardwebbläsare för dess GUI.

ComfyUI CLI info

Det grafiska användargränssnittet du kommer att presenteras för visar arbetsflödet för bildgenereringsmodellen, även om du kan hoppa direkt in genom att ersätta texten i CLIP Text Encode-prompten. I det här exemplet genererade vi fyra bilder av en sengångare som spelar ett videospel. I fältet Empty Latent Image ändrades bildernas bredd och höjd från 512 till 1024 för att göra dem större. "batch_size" ändrades till 4 för att göra multiplar samtidigt.

Exempel på bildgenerering av ComfyUI

Sista tankar: Att stärka nästa generation med AI

Den snabba utvecklingen av AI och dess växande tillgänglighet gör att dagens speldatorer kan tjäna ett mycket större syfte än bara underhållning. Genom att ge barn tidig tillgång till AI genom molnbaserade erbjudanden eller på lokala instanser med kapabla system, ger vi dem verktygen att utforska maskininlärning. De kan experimentera med AI-driven kreativitet och utveckla värdefulla programmeringsfärdigheter som kommer att bli allt mer relevanta.

Från att koda enkla spel till att köra LLM och generera AI-driven konst, en välutrustad hemdator kan bli en robust inlärningsmiljö. Oavsett om du använder molnbaserade AI-tjänster eller dyker in i lokala implementeringar med verktyg som Ollama, ComfyUI eller otaliga andra, är möjligheterna för unga elever att engagera sig med AI rikligare än någonsin.

I slutändan handlar beslutet att investera i ett mer kapabelt system inte bara om att uppgradera hårdvara; det handlar om att främja nyfikenhet, kreativitet och tekniska färdigheter. När AI fortsätter att forma framtiden kan det vara en av de mest effektfulla investeringarna i deras utbildning och utveckling att låta barn experimentera med dessa tekniker.

Engagera dig med StorageReview

Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Rssflöde