Thuis Consument Beginnen met AI: wanneer een gaming-pc een leermiddel wordt

Beginnen met AI: wanneer een gaming-pc een leermiddel wordt

by Kevin OBrien

Nu programmeren met behulp van AI steeds populairder wordt, is het goed om uw kinderen een krachtiger computer- en grafisch platform te geven.

Nu AI-verbeterde programmering in opkomst is, is er een reden om je kinderen een krachtiger reken- en grafisch platform te geven. Ja, er zijn voordelen, zoals het spelen van de nieuwste games, maar een opkomend voordeel is de mogelijkheid om geavanceerde AI-tools en lokale LLM's lokaal op het systeem uit te rollen. Dit staat in schril contrast met de instapplatforms waarop velen meestal beginnen, die beperkt zijn tot alleen webbrowsen of productiviteitssoftware. In dit artikel onderzoeken we hoe een gaming-pc, uitgerust met een high-end GPU en snelle opslag, kan dienen als zowel een elite gaming-setup als een efficiënt platform om te leren coderen met AI.

Het idee van een gamingsysteem dat is omgebouwd tot een AI-werkstation is niet nieuw; we hebben vorig jaar een deel van dit onderwerp al behandeld in een artikel waarin we de verschillen tussen de Dell Alienware R16 en Dell Precision 5860. Terwijl dat artikel zich richtte op de prestatieverschillen tussen consumenten- en werkstation-grade GPU's en drivers voor een breed scala aan workloads, zal dit artikel zich richten op waarom een ​​gamingsysteem waarde kan toevoegen voor iemand die leert met AI. De tools die AI benutten, worden ook niet trager, met veel aankondigingen rondom de nieuwe NVIDIA 50-serie GPU's.

Als u een kind op een K-12-school hebt, is het meegeleverde systeem doorgaans een basis Chromebook. Deze platforms hebben voordelen wat betreft kosten, onderhoudbaarheid en toegang tot technologie, maar ze werken niet geweldig voor geavanceerde use cases. Maak kennis met de thuisgaming-pc, die talloze uren aan gameplezier kan bieden, maar is uitgerust met een aantal van de meest kosteneffectieve hardware voor AI-ontwikkelingswerk.

Dit begon toen mijn 11-jarige zoon vroeg of hij AI kon gebruiken om een ​​videogame te maken. Met wat hulp introduceerde ik hem bij Abacus.AI en liet hem zien hoe hij een tekstprompt kon maken om Python-code te schrijven, Python op Windows kon installeren en de games kon uitvoeren die hij aan het ontwerpen was. Dit was in een tijdsbestek van 15 minuten. Hij had geen programmeerervaring en ik denk dat dit de eerste keer was dat ik een Python-omgeving op Windows had geïnstalleerd. Het was behoorlijk opmerkelijk om dit met eigen ogen te zien.

Beginnen met Python-programmering met AI

Hij was op dreef met verschillende spelideeën om te proberen. Tekstpromptspellen waren de eerste, zoals steen papier schaar, maar dat evolueerde naar een platformspel met een GUI. De eerste versie was een klein rood blok dat kon stuiteren als het spel begon en wat hulp van de fysica nodig had. Het evolueerde snel naar een luiaard die over platforms sprong.

Beginnen met Python-programmering met AI: Sloth Runner

De uiteindelijke versie van dat spel werd een Sloth and Capybara-avonturenspel met personages die over water vol alligators sprongen. Het was een surrealistische ervaring om te zien, maar het benadrukt wel dat kinderen verbazingwekkende dingen kunnen doen met de juiste hulpmiddelen voor hun neus.

Beginnen met Python-programmering met AI: Luiaard springende alligators

In dit artikel verkennen we een paar gebieden van AI die gemakkelijk in een thuisomgeving kunnen worden verkend voor zowel jongere als oudere doelgroepen. Cloudgebaseerde AI-aanbiedingen zoals Abacus AI, OpenAI en andere zijn eenvoudig te starten en vereisen geen gespecialiseerde hardware. Deze AI-tools bieden een breed scala aan tekst, afbeeldingen, video en talloze andere modellen.

Cloudgebaseerde AI-oplossingen

Cloudgebaseerde AI-oplossingen hebben een revolutie teweeggebracht in de manier waarop we omgaan met en leren van kunstmatige intelligentie. Deze platforms bieden toegang tot geavanceerde modellen zonder dat gebruikers hoeven te investeren in dure hardware, populaire opties zoals ChatGPT en Anthropic's Claude. Eén platform dat echter opvalt door zijn veelzijdigheid en waarde is Telraam.ai.

Abacus AI-programmering

CodeLLM stelt gebruikers bijvoorbeeld in staat om rechtstreeks in een online IDE te coderen terwijl ze met een chatbot interacteren voor realtime assistentie. Deze functie is perfect voor beginners die leren coderen of ervaren ontwikkelaars die snel een prototype willen maken. De Code Playground-functie gaat nog een stap verder door gebruikers in staat te stellen hun code rechtstreeks in de browser uit te voeren, waardoor lokale instellingen niet meer nodig zijn. Dit is met name handig voor het maken van interactieve animaties.

Abacus bevat ook mogelijkheden zoals Deep Research, dat AI integreert in onderzoeksworkflows, en een AI Engineer, die automatisch bots kan maken voor specifieke taken. Deze functies maken het gemakkelijk om aan de slag te gaan met AI, of u nu codeert, afbeeldingen genereert of interactieve applicaties bouwt. Zelfs een eenvoudige laptop of Chromebook kan een krachtig leermiddel worden voor ouders of docenten wanneer deze wordt gecombineerd met een cloudgebaseerde oplossing zoals Abacus.AI.

Lokale AI

Een natuurlijke vraag rijst: als cloudgebaseerde oplossingen zo goedkoop, toegankelijk en gemakkelijk te gebruiken zijn, waarom zou je dan überhaupt moeite doen met lokale AI? Het antwoord ligt in de unieke voordelen die lokale AI biedt, waardoor het een aantrekkelijke keuze kan zijn voor specifieke gebruikers, met name degenen met high-end gaming-pc's of die meer controle willen over hun AI-workflows.

Het antwoord ligt in privacy, controle en toegankelijkheid. Door AI-modellen lokaal uit te voeren, blijven uw gegevens op uw machine staan, wat ongeëvenaarde privacy biedt en ideaal is voor gevoelige projecten of persoonlijk gebruik. Het biedt ook offline toegang, waardoor het betrouwbaar is in gebieden met slechte connectiviteit of tijdens serveruitval. Voor zware gebruikers kan lokale AI op de lange termijn kosteneffectiever zijn, omdat er geen terugkerende kosten zijn voor gebruik zodra de hardware is ingesteld. Lokale AI biedt ook vrijheid en flexibiliteit. U kunt modellen aanpassen en verfijnen, experimenteren met open-sourceopties en zelfs uw modellen trainen. Bovendien zal een praktische aanpak helpen bij het opbouwen van waardevolle technische vaardigheden.

Hardware-eisen

Lokale AI uitvoeren zal wat hardware-uitdagingen met zich meebrengen, daarom is het onderwerp van het herinrichten van een gamingsysteem hiervoor logisch. Hoewel sommige lokale AI-suites een CPU kunnen benutten, wat we hieronder bespreken, geven bijna alle de voorkeur aan een GPU, met name NVIDIA. Momenteel zijn NVIDIA GPU's het populairst, waarbij VRAM een gatingfactor is. Als we de 40-serie NVIDIA GeForce-reeks als voorbeeld nemen, analyseren we hoeveel VRAM elke kaart heeft:

  • NVIDIA GeForce RTX 4050 (8 GB VRAM)
  • NVIDIA GeForce RTX 4060 (12 GB VRAM)
  • NVIDIA GeForce RTX 4070 (16 GB VRAM)
  • NVIDIA GeForce RTX 4080 (20 GB VRAM)
  • NVIDIA GeForce RTX 4090 (24 GB VRAM)

Over het algemeen geldt dat naarmate u de modelgrootte of de precisie van het model vergroot, de VRAM-vereisten toenemen. Hier is een overzicht van de DeepSeek R1-modellen variërend van 1.5B tot 70B in grootte en FP4 tot FP8 precisieniveaus. U zult snel merken dat de meeste consumenten-GPU's beperkt zullen zijn tot kleinere modelgroottes. De VRAM-voetafdruk zal ook fluctueren, afhankelijk van wat u met het model doet, dus u hebt wat speling nodig.

DeepSeek R1-modelgrootte Inferentie VRAM (FP8) Inferentie VRAM (FP4)
1.5B ~ 1.5 GB ~ 0.75 GB
7B ~ 7 GB ~ 3.5 GB
8B ~ 8 GB ~ 4 GB
14B ~ 14 GB ~ 7 GB
32B ~ 32 GB ~ 16 GB
70B ~ 70 GB ~ 35 GB

DeepSeek R1 of Llama 3.1 lokaal uitvoeren met Ollama

Ollama is een van de eenvoudigere methoden voor het implementeren van een lokale LLM. Ollama is gebruiksvriendelijk, waardoor het zelfs toegankelijk is voor mensen die niet zo technisch zijn. De interface vereenvoudigt het proces van het downloaden, beheren en interacteren met grote taalmodellen (LLM's). Op Windows is het installeren van Ollama eenvoudig. Ga naar de Ollama-website, klik op downloaden (kies uw besturingssysteem) en voer vervolgens het installatiebestand uit.

Schermafbeelding van de Ollama-website

Na installatie stelt de opdrachtregelinterface (CLI) van Ollama gebruikers in staat om eenvoudig modellen op te halen en uit te voeren met eenvoudige opdrachten, zoals ollama pull en ollama rennen . Dit kan worden geopend door op de Windows Start-knop te klikken, "cmd" te typen en uw opdrachtprompt te laden. Hieronder ziet u een voorbeeld van modellen die al op het systeem zijn gedownload, DeepSeek R1 14B opstarten en een verhaal schrijven over een luiaard die een huis bouwt.

Ollama runt DeepSeek R1 LLM

Naast de CLI biedt Ollama ook Ollama Hub, een webgebaseerde interface die een gebruikerservaring biedt die vergelijkbaar is met AI-oplossingen in de cloud. Hierdoor is de interface zelfs toegankelijk voor gebruikers die de voorkeur geven aan een grafische interface.

Ollama's uitgebreide community support en snelle ontwikkelingscyclus maken het bijzonder aantrekkelijk. Er is ook het voordeel dat het installeren ervan een paar seconden duurt, en het is net zo snel om iemand op de hoogte te brengen van het downloaden of uitvoeren van modellen. De meest langdurige vertraging voor de meeste gebruikers zal hun internetsnelheid zijn, aangezien veel van deze modellen vele GB's groot zijn.

Computerbronnen die lokale LLM uitvoeren

Het is belangrijk om op te merken dat als u van plan bent om een ​​lokale LLM te draaien, elk model andere systeemvereisten heeft, waarbij een GPU de voorkeur heeft om dingen efficiënt te laten verlopen. Ollama draait het DeepSeek R1 14B-model in de bovenstaande systeembronafbeelding, die net geen 11 GB VRAM gebruikt. Terwijl het model geladen is, blijft de GPU inactief, maar het gebruik zal pieken zodra u ermee begint te interacteren.

LLM's uitvoeren op hardware van lagere kwaliteit: gekwantiseerde modellen

Gekwantiseerde modellen bieden een praktische oplossing voor gebruikers die werken met GPU's met een lager VRAM. Dit zijn in feite gecomprimeerde versies van LLM's die de geheugenvereisten verminderen, waardoor ze op minder krachtige GPU's kunnen worden uitgevoerd. Hoewel kwantificering ten koste gaat van wat prestaties en nauwkeurigheid, maakt het het uitvoeren van geavanceerde modellen toegankelijker voor een breder scala aan hardware.

Het is ook mogelijk om LLM's op CPU's uit te voeren, maar dit brengt wel een verdere prestatie-afweging met zich mee. CPU-gebaseerde uitvoering is aanzienlijk langzamer dan GPU-gebaseerde verwerking, maar het kan nog steeds een haalbare optie zijn voor kleinere modellen of gebruikers zonder toegang tot een speciale GPU.

LLAMA.CPP

Een van de meest populaire mogelijkheden voor het uitvoeren van LLM's op CPU's is lama.cpp, een C++ native applicatie ontworpen voor efficiënte inferentie van grote taalmodellen. Ondanks de naam is llama.cpp niet beperkt tot LLaMA-modellen. Het lichtgewicht ontwerp en de optimalisatie voor CPU-gebruik maken het een uitstekende keuze voor gebruikers die willen experimenteren met lokale AI op bescheiden hardware. Door gekwantiseerde modellen te ondersteunen, vermindert llama.cpp de resourcevereisten verder, waardoor zelfs hardware van consumentenkwaliteit geavanceerde LLM's efficiënt kan uitvoeren.

Stabiele diffusie-afbeeldinggeneratie met ComfyUI

Voor het lokaal genereren van afbeeldingen is ComfyUI een eenvoudige manier om aan de slag te gaan. We volgden de gids over stabiele diffusiekunst om het exemplaar draaiende te krijgen. De stappen omvatten het downloaden van het ComfyUI-exemplaar in een draagbaar 7z-archief, het uitpakken van de map en het downloaden van een bestaand modelcontrolepunt.

Map met ComfyUI

ComfyUI uitvoeren is een beetje anders dan Ollama LLM. Open de map met de ComfyUI-instantie en het opgeslagen controlepunt en dubbelklik vervolgens op het bestand run_cpu als u een systeem met geïntegreerde of low-end graphics hebt of op run_nvidia_gpu als u een stevige dedicated NVIDIA-videokaart hebt.

ComfyUI batchbestand voor NVIDIA GPU's

Dat laadt dan een opdrachtprompt op de achtergrond. Het ziet er relatief complex uit, maar laadt snel een link naar uw standaardwebbrowser voor de GUI.

ComfyUI CLI-info

De GUI die u te zien krijgt, toont de workflow van het model voor het genereren van afbeeldingen, maar u kunt er direct inspringen door de tekst in de prompt CLIP Text Encode te vervangen. In dit voorbeeld hebben we vier afbeeldingen gegenereerd van een luiaard die een videogame speelt. In het veld Empty Latent Image zijn de breedte en hoogte van de afbeeldingen gewijzigd van 512 naar 1024 om ze groter te maken. De "batch_size" is gewijzigd naar 4 om meerdere afbeeldingen tegelijk te maken.

ComfyUI-afbeeldingsgeneratievoorbeeld

Laatste gedachten: de volgende generatie empoweren met AI

De snelle evolutie van AI en de toenemende toegankelijkheid ervan betekent dat de gaming-pc's van vandaag de dag een veel groter doel kunnen dienen dan alleen entertainment. Door kinderen vroegtijdig toegang te geven tot AI via cloudgebaseerde aanbiedingen of op lokale instanties met capabele systemen, geven we ze de tools om machine learning te verkennen. Ze kunnen experimenteren met AI-gestuurde creativiteit en waardevolle programmeervaardigheden ontwikkelen die steeds relevanter zullen worden.

Van het coderen van simpele games tot het runnen van LLM's en het genereren van AI-aangedreven kunst, een goed uitgeruste thuis-pc kan een robuuste leeromgeving worden. Of u nu cloud-gebaseerde AI-services gebruikt of duikt in lokale implementaties met tools als Ollama, ComfyUI of talloze andere, de mogelijkheden voor jonge leerlingen om met AI bezig te zijn, zijn overvloediger dan ooit.

Uiteindelijk gaat het bij de beslissing om te investeren in een capabeler systeem niet alleen om het upgraden van hardware; het gaat om het stimuleren van nieuwsgierigheid, creativiteit en technische vaardigheden. Nu AI de toekomst blijft vormgeven, kan het toestaan ​​dat kinderen experimenteren met deze technologieën een van de meest impactvolle investeringen in hun opleiding en ontwikkeling zijn.

Neem contact op met StorageReview

Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed