Casa Consumatori Iniziare con l'intelligenza artificiale: quando un PC da gioco diventa uno strumento di apprendimento

Iniziare con l'intelligenza artificiale: quando un PC da gioco diventa uno strumento di apprendimento

by Kevin O'Brien

Con l'aumento della programmazione basata sull'intelligenza artificiale, è opportuno fornire ai vostri figli una piattaforma di elaborazione e grafica più potente.

Con la programmazione potenziata dall'intelligenza artificiale in aumento, è il caso di dare ai tuoi figli una piattaforma di elaborazione e grafica più potente. Sì, ci sono dei vantaggi, come giocare agli ultimi giochi, ma un vantaggio emergente è la possibilità di implementare strumenti di intelligenza artificiale avanzati e LLM locali localmente sul sistema. Ciò contrasta nettamente con le piattaforme di ingresso su cui molti di solito iniziano, che sono limitate solo alla navigazione web o al software di produttività. In questo articolo, esploriamo come un PC da gioco, dotato di una GPU di fascia alta e di un archivio veloce, possa fungere sia da configurazione di gioco d'élite sia da piattaforma efficiente per imparare a programmare con l'intelligenza artificiale.

L'idea di un sistema di gioco trasformato in una postazione di lavoro AI non è nuova; abbiamo affrontato parte di questo argomento in un articolo l'anno scorso che trattava le differenze tra Dell Alienware R16 e Dell Precision 5860. Mentre quell'articolo si concentrava sulle differenze di prestazioni tra GPU e driver consumer e workstation-grade in un'ampia gamma di carichi di lavoro, questo articolo si concentrerà sul perché un sistema di gioco può aggiungere valore a qualcuno che impara con l'IA. Anche gli strumenti che sfruttano l'IA non stanno rallentando, con molti gli annunci erano incentrati sulle nuove GPU NVIDIA serie 50.

Se hai un bambino in una scuola K-12, il sistema fornito sarà generalmente un Chromebook di base. Queste piattaforme hanno vantaggi dal punto di vista dei costi, della manutenibilità e dell'accesso alla tecnologia, ma non funzionano alla grande per i casi di utilizzo avanzati. Entra in gioco il PC da gioco domestico, che può offrire innumerevoli ore di divertimento di gioco ma è dotato di alcuni degli hardware più convenienti per il lavoro di sviluppo dell'intelligenza artificiale.

Tutto è iniziato quando il mio undicenne mi ha chiesto se poteva usare l'intelligenza artificiale per creare un videogioco. Con un po' di aiuto, gli ho fatto conoscere Abacus.AI e gli ho mostrato come creare un prompt di testo per scrivere codice Python, installare Python su Windows ed eseguire i giochi che stava progettando. Tutto questo nell'arco di 11 minuti. Non aveva esperienza di programmazione e credo che questa fosse la prima volta che installavo un ambiente Python su Windows. È stato piuttosto notevole assistervi in ​​prima persona.

Iniziare con la programmazione Python con AI

Era in vena di provare diverse idee di gioco. I primi erano i giochi con prompt testuali, come sasso carta forbici, ma si sono evoluti in un gioco a piattaforme con una GUI. La prima versione era un piccolo blocco rosso che poteva rimbalzare all'inizio del gioco e aveva bisogno di un po' di aiuto fisico. Si è rapidamente evoluto in un bradipo che saltava da una piattaforma all'altra.

Iniziare con la programmazione Python con AI: Sloth Runner

La versione finale di quel gioco si è trasformata in un gioco di avventura Sloth and Capybara in cui i personaggi saltano su acque piene di alligatori. È stata un'esperienza surreale da vedere, ma ci fa capire che i bambini possono fare cose sorprendenti con gli strumenti giusti davanti a loro.

Iniziare con la programmazione Python con l'intelligenza artificiale: alligatori saltatori bradipi

In questo articolo esploreremo alcune aree dell'IA che possono essere facilmente esplorate in un ambiente domestico per un pubblico sia giovane che anziano. Le offerte di IA basate su cloud come Abacus AI, OpenAI e altre sono facili da avviare e non richiedono alcun hardware specializzato. Questi strumenti di IA offrono un'ampia gamma di testo, immagini, video e innumerevoli altri modelli.

Soluzioni AI basate su cloud

Le soluzioni AI basate su cloud hanno rivoluzionato il modo in cui interagiamo e impariamo dall'intelligenza artificiale. Queste piattaforme forniscono accesso a modelli all'avanguardia senza richiedere agli utenti di investire in hardware costosi, opzioni popolari come ChatGPT e Claude di Anthropic. Tuttavia, una piattaforma che si distingue per la sua versatilità e valore è abacus.ai.

Programmazione AI Abacus

Ad esempio, CodeLLM consente agli utenti di programmare direttamente in un IDE online mentre interagiscono con un chatbot per assistenza in tempo reale. Questa funzionalità è perfetta per i principianti che imparano a programmare o per gli sviluppatori esperti che desiderano creare rapidamente prototipi. La funzionalità Code Playground la porta oltre consentendo agli utenti di eseguire il loro codice direttamente nel browser, eliminando la necessità di una configurazione locale. Ciò è particolarmente utile per creare animazioni interattive.

Abacus include anche capacità come Deep Research, che integra l'IA nei flussi di lavoro di ricerca, e un AI Engineer, che può creare automaticamente bot per attività specifiche. Queste funzionalità semplificano l'avvio dell'IA, sia che tu stia esplorando la codifica, generando immagini o creando applicazioni interattive. Anche un semplice laptop o Chromebook può diventare un potente strumento di apprendimento per genitori o educatori se abbinato a una soluzione basata su cloud come Abacus.AI.

AI locale

Una domanda naturale sorge spontanea: se le soluzioni basate su cloud sono così economiche, accessibili e facili da usare, perché preoccuparsi dell'IA locale? La risposta sta nei vantaggi unici offerti dall'IA locale, che possono renderla una scelta interessante per utenti specifici, in particolare quelli con PC da gioco di fascia alta o che desiderano un maggiore controllo sui propri flussi di lavoro di IA.

La risposta sta nella privacy, nel controllo e nell'accessibilità. L'esecuzione di modelli AI in locale assicura che i tuoi dati rimangano sul tuo computer, offrendo una privacy senza pari, ed è ideale per progetti sensibili o per uso personale. Fornisce inoltre accesso offline, rendendolo affidabile in aree con scarsa connettività o durante interruzioni del server. Per gli utenti assidui, l'AI locale può essere più conveniente a lungo termine, poiché non ci sono costi ricorrenti per l'utilizzo una volta configurato l'hardware. L'AI locale offre anche libertà e flessibilità. Puoi personalizzare e mettere a punto i modelli, sperimentare opzioni open source e persino addestrare i tuoi modelli. Inoltre, un approccio pratico aiuterà a sviluppare preziose competenze tecniche.

Requisiti hardware

L'esecuzione dell'IA locale comporterà alcune sfide hardware, motivo per cui l'argomento del riutilizzo di un sistema di gioco per essa ha senso. Mentre alcune suite di IA locale possono sfruttare una CPU, di cui parleremo di seguito, quasi tutte preferiscono una GPU, in particolare NVIDIA. Attualmente, le GPU NVIDIA sono le più diffuse, con VRAM come fattore di limitazione. Prendendo come esempio la gamma NVIDIA GeForce serie 40, suddividiamo la quantità di VRAM di ogni scheda:

  • NVIDIA GeForce RTX 4050 (8 GB di RAM)
  • NVIDIA GeForce RTX 4060 (12 GB di RAM)
  • NVIDIA GeForce RTX 4070 (16 GB di RAM)
  • NVIDIA GeForce RTX 4080 (20 GB di RAM)
  • NVIDIA GeForce RTX 4090 (24 GB di RAM)

In generale, aumentando le dimensioni del modello o la precisione del modello, aumentano i requisiti di VRAM. Ecco una ripartizione dei modelli DeepSeek R1 che vanno da 1.5B a 70B in termini di dimensioni e livelli di precisione da FP4 a FP8. Ti renderai presto conto che la maggior parte delle GPU consumer sarà limitata a dimensioni di modello più piccole. Anche l'impronta VRAM fluttuerà a seconda di cosa fai con il modello, quindi hai bisogno di un po' di margine.

Dimensioni del modello DeepSeek R1 Inferenza VRAM (FP8) Inferenza VRAM (FP4)
1.5B ~ 1.5 GB ~ 0.75 GB
7B ~ 7 GB ~ 3.5 GB
8B ~ 8 GB ~ 4 GB
14B ~ 14 GB ~ 7 GB
32B ~ 32 GB ~ 16 GB
70B ~ 70 GB ~ 35 GB

Esecuzione di DeepSeek R1 o Llama 3.1 in locale con Ollama

Ollama è uno dei metodi più semplici per distribuire un LLM locale. Ollama è intuitivo, il che lo rende accessibile anche a chi non è molto tecnico. La sua interfaccia semplifica il processo di download, gestione e interazione con i grandi modelli linguistici (LLM). Su Windows, installare Ollama è semplice. Vai su Sito web Ollama, fai clic su Scarica (scegli il tuo sistema operativo) e quindi esegui il file di installazione.

Schermata del sito web di Ollama

Una volta installata, l'interfaccia a riga di comando (CLI) di Ollama consente agli utenti di estrarre ed eseguire facilmente modelli con semplici comandi, come ollama pull e ollama corre . È possibile accedervi cliccando sul pulsante Start di Windows, digitando "cmd" e caricando il prompt dei comandi. Di seguito è riportato un esempio che mostra modelli già scaricati sul sistema, avviando DeepSeek R1 14B e scrivendo una storia su un bradipo che costruisce una casa.

Ollama esegue DeepSeek R1 LLM

Oltre alla CLI, Ollama offre anche Ollama Hub, un'interfaccia basata sul Web che fornisce un'esperienza utente simile alle soluzioni di intelligenza artificiale nel cloud, rendendola accessibile anche a coloro che preferiscono un'interfaccia grafica.

L'ampio supporto della comunità di Ollama e il rapido ciclo di sviluppo lo rendono particolarmente attraente. C'è anche il vantaggio che l'installazione richiede pochi secondi e che far sì che qualcuno sia aggiornato sullo scaricamento o l'esecuzione dei modelli è altrettanto rapido. Il ritardo più prolungato per la maggior parte degli utenti sarà la velocità di Internet, poiché molti di questi modelli hanno dimensioni di molti GB.

Risorse informatiche che eseguono LLM locale

È importante notare che se si intende eseguire un LLM locale, ogni modello avrà requisiti di sistema diversi, con una GPU altamente preferita per eseguire le cose in modo efficiente. Ollama esegue il modello DeepSeek R1 14B nella ripresa delle risorse di sistema sopra, che utilizza poco meno di 11 GB di VRAM. Mentre il modello è caricato, la GPU rimane inattiva, ma l'utilizzo aumenterà non appena si inizia a interagire con essa.

Esecuzione di LLM su hardware di fascia bassa: modelli quantizzati

I modelli quantizzati offrono una soluzione pratica per gli utenti che lavorano con GPU con VRAM inferiore. Si tratta essenzialmente di versioni compresse di LLM che riducono i requisiti di memoria, consentendo loro di funzionare su GPU meno potenti. Mentre la quantizzazione avviene a scapito di alcune prestazioni e accuratezza, rende l'esecuzione di modelli avanzati più accessibile a una gamma più ampia di hardware.

È anche possibile eseguire LLM su CPU, anche se questo comporta un ulteriore compromesso in termini di prestazioni. L'esecuzione basata su CPU è significativamente più lenta dell'elaborazione basata su GPU, ma può comunque essere un'opzione praticabile per modelli più piccoli o utenti senza accesso a una GPU dedicata.

LAMA.CPP

Una delle capacità più diffuse per l'esecuzione di LLM su CPU è lama.cpp, un'applicazione nativa C++ progettata per l'inferenza efficiente di modelli linguistici di grandi dimensioni. Nonostante il nome, llama.cpp non è limitato ai modelli LLaMA. Il suo design leggero e l'ottimizzazione per l'utilizzo della CPU lo rendono una scelta eccellente per gli utenti che desiderano sperimentare l'IA locale su hardware modesto. Supportando modelli quantizzati, llama.cpp riduce ulteriormente i requisiti di risorse, consentendo anche all'hardware di livello consumer di eseguire LLM avanzati in modo efficiente.

Generazione di immagini di diffusione stabile con ComfyUI

Per la generazione di immagini locali, ComfyUI è un modo semplice per iniziare. Abbiamo seguito la guida sulla Stable Diffusion Art per far funzionare l'istanza. I passaggi prevedono il download dell'istanza ComfyUI in un archivio 7z portatile, l'estrazione della cartella e il download di un checkpoint del modello esistente.

Cartella che mostra ComfyUI

L'esecuzione di ComfyUI è un po' diversa da quella di Ollama LLM. Apri la cartella con l'istanza di ComfyUI e il checkpoint salvato, quindi fai doppio clic sul file run_cpu se hai un sistema con grafica integrata o di fascia bassa o run_nvidia_gpu se hai una robusta scheda grafica NVIDIA dedicata.

File batch ComfyUI per GPU NVIDIA

Ciò caricherà un prompt dei comandi in background. Sembra relativamente complesso ma carica rapidamente un collegamento al tuo browser web predefinito per la sua GUI.

Informazioni sulla CLI ComfyUI

La GUI che ti verrà presentata mostra il flusso di lavoro del modello di generazione delle immagini, anche se puoi iniziare subito sostituendo il testo all'interno del prompt CLIP Text Encode. In questo esempio, abbiamo generato quattro immagini di un bradipo che gioca a un videogioco. Nel campo Empty Latent Image, la larghezza e l'altezza delle immagini sono state modificate da 512 a 1024 per renderle più grandi. Il "batch_size" è stato modificato in 4 per crearne più di uno contemporaneamente.

Esempio di generazione di immagini ComfyUI

Considerazioni finali: potenziare la prossima generazione con l'intelligenza artificiale

La rapida evoluzione dell'IA e la sua crescente accessibilità significano che i PC da gioco di oggi possono avere uno scopo molto più grande del semplice intrattenimento. Fornendo ai bambini un accesso precoce all'IA tramite offerte basate su cloud o su istanze locali con sistemi capaci, stiamo dando loro gli strumenti per esplorare l'apprendimento automatico. Possono sperimentare la creatività guidata dall'IA e sviluppare preziose competenze di programmazione che saranno sempre più rilevanti.

Dalla codifica di semplici giochi all'esecuzione di LLM e alla generazione di arte basata sull'intelligenza artificiale, un PC domestico ben equipaggiato può diventare un ambiente di apprendimento robusto. Sia che si utilizzino servizi di intelligenza artificiale basati su cloud o che ci si immerga in distribuzioni locali con strumenti come Ollama, ComfyUI o innumerevoli altri, le opportunità per i giovani studenti di interagire con l'intelligenza artificiale sono più abbondanti che mai.

In definitiva, la decisione di investire in un sistema più capace non riguarda solo l'aggiornamento dell'hardware; riguarda la promozione della curiosità, della creatività e delle competenze tecniche. Mentre l'intelligenza artificiale continua a plasmare il futuro, consentire ai bambini di sperimentare queste tecnologie potrebbe essere uno degli investimenti più impattanti nella loro istruzione e nel loro sviluppo.

Interagisci con StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed