首頁 消費者 人工智慧入門:當遊戲電腦成為學習工具

人工智慧入門:當遊戲電腦成為學習工具

by 凱文·奧布萊恩

隨著人工智慧增強程式設計的興起,我們有理由為您的孩子提供更強大的運算和圖形平台。

隨著人工智慧增強程式設計的興起,我們有理由為您的孩子提供更強大的運算和圖形平台。是的,確實有好處,例如可以玩最新的遊戲,但一個新興的好處是能夠在系統上本地推出先進的 AI 工具和本地 LLM。這與許多人通常開始使用的入門平台形成了鮮明對比,這些平台僅限於網頁瀏覽或生產力軟體。在本文中,我們探討配備高階 GPU 和快速儲存的遊戲 PC 如何既可作為精英遊戲設置,又可作為學習使用 AI 編碼的有效平台。

遊戲系統轉變為人工智慧工作站的想法並不新鮮;我們在去年的一篇文章中探討了這個主題的一部分,討論了 Dell Alienware R16 與 Dell Precision 5860。雖然那篇文章重點關注了各種工作負載下消費級和工作站級 GPU 和驅動程式之間的效能差異,但本文將重點放在為什麼遊戲系統可以為使用 AI 學習的人增加價值。利用人工智慧的工具也沒有放慢腳步,許多 公告主要圍繞全新 NVIDIA 50 系列 GPU。

如果您的孩子就讀 K-12 學校,所提供的系統通常是基本的 Chromebook。這些平台從成本、可服務性和技術可訪問性的角度來看具有優勢,但它們對於高級用例來說效果並不好。進入家用遊戲電腦,它不僅可以提供無數小時的遊戲樂趣,還配備了一些最具成本效益的硬件,用於 AI 開發工作。

這件事始於我 11 歲的兒子問我是否可以使用人工智慧製作電子遊戲。在一些幫助下,我向他介紹了 Abacus.AI,並向他展示如何製作文字提示來編寫 Python 程式碼、在 Windows 上安裝 Python 以及執行他正在設計的遊戲。這個過程只​​持續了 15 分鐘。他沒有任何程式設計經驗,我想這是我第一次在 Windows 上安裝 Python 環境。親眼目睹這件事真是令人驚訝。

從 AI 的 Python 程式設計開始

他正在嘗試各種不同的遊戲點子。最先出現的是文字提示遊戲,例如石頭剪刀布,但後來逐漸演變為具有 GUI 的平台遊戲。第一個版本是一個小紅塊,它可以在遊戲開始時彈跳,需要一些物理幫助。它很快就進化成了一隻在各個平台間跳躍的樹懶。

從 Python 程式設計開始用 AI:Sloth Runner

遊戲的最終版本變成了一款樹懶和水豚冒險遊戲,其中的角色跳過充滿鱷魚的水。這是一次超現實的體驗,但它讓我們深刻地體認到,孩子只要擁有合適的工具就能做出令人驚奇的事。

從人工智慧 Python 程式開始:樹懶跳躍的鱷魚

在本文中,我們將探討一些適合年輕和年長受眾在家庭環境中輕鬆探索的人工智慧領域。 Abacus AI、OpenAI 等基於雲端的 AI 產品易於啟動,並且不需要任何專門的硬體。這些 AI 工具提供廣泛的文字、圖像、影片和無數其他模型。

基於雲端的人工智慧解決方案

基於雲端的人工智慧解決方案徹底改變了我們與人工智慧互動和學習的方式。這些平台提供了存取尖端模型的權限,而無需用戶投資昂貴的硬體——流行的選項包括 ChatGPT 和 Anthropic 的 Claude。然而,一個因其多功能性和價值而脫穎而出的平台是 算盤.

Abacus AI編程

例如,CodeLLM 允許用戶直接在線上 IDE 中編碼,同時與聊天機器人互動以獲得即時幫助。此功能非常適合學習編碼的初學者或希望快速製作原型的經驗豐富的開發人員。 Code Playground 功能更進一步,讓使用者直接在瀏覽器中執行程式碼,無需本機設定。這對於創建互動式動畫特別有用。

Abacus 還具有深度研究等功能,可將 AI 整合到研究工作流程中,以及 AI 工程師,可自動為特定任務建立機器人。這些功能讓您可以輕鬆開始使用 AI,無論您是在探索編碼、生成圖像還是建立互動式應用程式。即使是基本的筆記型電腦或 Chromebook,當與 Abacus.AI 等基於雲端的解決方案結合使用時,也可以成為家長或教育工作者強大的學習工具。

本地人工智慧

一個自然而然的問題出現了:如果基於雲端的解決方案如此便宜、易於存取且易於使用,那麼為什麼還要費心使用本地人工智慧呢?答案在於本地 AI 所提供的獨特優勢,這可以使其成為特定用戶的引人注目的選擇,特別是那些擁有高階遊戲電腦或希望更好地控制其 AI 工作流程的用戶。

答案在於隱私、控制和可訪問性。在本地運行 AI 模型可確保您的資料保留在您的機器上,提供無與倫比的隱私,非常適合敏感專案或個人使用。它還提供離線訪問,使其在連接性較差的地區或伺服器中斷期間也能可靠使用。對於重度使用者來說,從長遠來看,本地人工智慧可以更具成本效益,因為一旦硬體設定好,就無需支付經常性使用費。本地人工智慧也提供自由和靈活性。您可以自訂和微調模型,嘗試開源選項,甚至訓練您的模型。此外,實踐操作方法將有助於培養寶貴的技術技能。

硬件要求

運行本地 AI 會面臨一些硬體挑戰,這就是為什麼重新利用遊戲系統來解決這個問題是有意義的。雖然一些本地 AI 套件可以利用 CPU(我們將在下面討論),但幾乎所有套件都更喜歡 GPU,尤其是 NVIDIA。目前,NVIDIA GPU 是最受歡迎的,其中 VRAM 是一個限制因素。以 40 系列 NVIDIA GeForce 產品線為例,我們詳細分析了每張卡片的 VRAM 容量:

  • NVIDIA GeForce RTX 4050(8GB VRAM)
  • NVIDIA GeForce RTX 4060(12GB VRAM)
  • NVIDIA GeForce RTX 4070(16GB VRAM)
  • NVIDIA GeForce RTX 4080(20GB VRAM)
  • NVIDIA GeForce RTX 4090(24GB VRAM)

一般來說,隨著模型尺寸或模型精度的增加,VRAM 需求也會增加。以下是 DeepSeek R1 模型的細分,其大小從 1.5B 到 70B,精度等級從 FP4 到 FP8。您很快就會意識到,大多數消費級 GPU 都局限於較小的模型尺寸。 VRAM 佔用空間也會根據您對模型的操作而波動,因此您需要一些空間。

DeepSeek R1 模型大小 推理 VRAM(FP8) 推理 VRAM(FP4)
1.5B ~1.5 GB ~0.75 GB
7B ~7 GB ~3.5 GB
8B ~8 GB ~4 GB
14B ~14 GB ~7 GB
32B ~32 GB ~16 GB
70B ~70 GB ~35 GB

使用 Ollama 在本地運行 DeepSeek R1 或 Llama 3.1

Ollama 是部署本地 LLM 的更直接的方法之一。 Ollama 用戶友好,即使技術不太熟練的人也可以使用它。它的介面簡化了下載、管理和與大型語言模型 (LLM) 互動的過程。在 Windows 上,安裝 Ollama 很簡單。前往 奧拉馬網站,按一下下載(選擇您的作業系統),然後執行該安裝檔。

Ollama 網站截圖

安裝後,Ollama 的命令列介面 (CLI) 允許使用者使用簡單的命令輕鬆提取和運行模型,例如 ollama pull和奧拉馬跑。可以透過點擊 Windows 開始按鈕、鍵入「cmd」並載入命令提示字元來存取。以下是一個範例,展示了系統上已下載的模型,啟動了 DeepSeek R1 14B 並編寫了一個關於樹懶建造房屋的故事。

Ollama 運行 DeepSeek R1 LLM

除了 CLI,Ollama 還提供基於 Web 的介面 Ollama Hub,可提供與雲端 AI 解決方案類似的使用者體驗,即使是喜歡圖形介面的使用者也可以存取它。

Ollama 廣泛的社區支持和快速的發展週期使其特別有吸引力。還有一個優點是安裝只需幾秒鐘,並且讓某人快速下載或運行模型。對於大多數用戶來說,最長時間的延遲將是他們的網路速度,因為這些型號中的許多型號都具有數 GB 的大小。

運行本地 LLM 的電腦資源

值得注意的是,如果您打算執行本地 LLM,每個模型都會有不同的系統需求,而 GPU 則更適合高效運作。 Ollama 在上面的系統資源中運行 DeepSeek R1 14B 模型,它使用了不到 11GB 的 VRAM。在載入模型時,GPU 處於空閒狀態,但只要您開始與其交互,其使用率就會飆升。

在低階硬體上運行 LLM:量化模型

量化模型為使用較低 VRAM GPU 的使用者提供了實用的解決方案。它們本質上是 LLM 的壓縮版本,可減少記憶體需求,從而允許它們在功能較弱的 GPU 上運行。雖然量化會犧牲一些效能和準確性,但它使得更廣泛的硬體能夠運行高級模型。

也可以在 CPU 上運行 LLM,但這會進一步損害效能。基於 CPU 的執行明顯比基於 GPU 的處理慢,但對於較小的模型或無法使用專用 GPU 的使用者來說,它仍然是一個可行的選擇。

駱駝

在 CPU 上運行 LLM 最受歡迎的功能之一是 調用.cpp,一個專為高效推理大型語言模型而設計的 C++ 原生應用程式。儘管有這樣的名字,llama.cpp 並不局限於 LLaMA 模型。它的輕量級設計和對 CPU 使用率的優化使其成為想要在普通硬體上嘗試本地 AI 的用戶的絕佳選擇。透過支援量化模型,llama.cpp 進一步降低了資源需求,甚至使消費級硬體也能高效地運行高級 LLM。

使用 ComfyUI 產生穩定的擴散影像

對於本地圖像生成,ComfyUI 是一種簡單的入門方法。 我們關注 穩定擴散藝術指南 使實例運行。 步驟包括下載便攜式 7z 檔案中的 ComfyUI 實例、提取資料夾以及下載現有模型檢查點。

顯示 ComfyUI 的資料夾

運行 ComfyUI 與 Ollama LLM 有點不同。開啟包含 ComfyUI 實例和已儲存的檢查點的資料夾,然後雙擊 run_cpu 檔案(如果您的系統具有整合或低階顯示卡)或 run_nvidia_gpu(如果您擁有強大的專用 NVIDIA 顯示卡)。

適用於 NVIDIA GPU 的 ComfyUI 批次文件

然後將在後台載入命令提示字元。它看起來相對複雜,但可以快速為其 GUI 載入到您的預設 Web 瀏覽器的連結。

ComfyUI CLI 訊息

您將看到的 GUI 顯示了圖像生成模型的工作流程,但您可以透過替換 CLIP 文字編碼提示中的文字直接進入。在這個例子中,我們產生了四張樹懶玩電子遊戲的圖像。在空潛像欄位中,影像的寬度和高度從 512 變更為 1024,使其更大。 “batch_size” 已更改為 4,以便同時製作多個。

ComfyUI 影像生成範例

最後的想法:用人工智慧賦能下一代

人工智慧的快速發展及其日益普及意味著當今的遊戲電腦可以發揮更大的作用,而不僅僅是娛樂。透過基於雲端的產品或具有強大系統的本地實例為孩子們提供早期接觸人工智慧的機會,我們為他們提供了探索機器學習的工具。他們可以嘗試人工智慧驅動的創造力並開發越來越重要的寶貴程式設計技能。

從編寫簡單的遊戲到運行 LLM 並生成 AI 驅動的藝術作品,設備齊全的家用電腦可以成為一個強大的學習環境。無論是使用基於雲端的 AI 服務,還是使用 Ollama、ComfyUI 或無數其他工具進行本地部署,年輕學習者接觸 AI 的機會比以往任何時候都更加豐富。

最終,投資更強大的系統的決定不僅僅是升級硬體;它旨在培養好奇心、創造力和技術技能。隨著人工智慧不斷塑造未來,讓孩子們嘗試這些技術可能是對他們的教育和發展最有影響力的投資之一。

參與 StorageReview

電子報 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | 的TikTok | RSS訂閱