ホーム 消費財 AIを始める: ゲーミングPCが学習ツールになるとき

AIを始める: ゲーミングPCが学習ツールになるとき

by ケビン・オブライエン

AI を活用したプログラミングが増えているため、より強力なコンピューティングおよびグラフィック プラットフォームを子供たちに提供することが求められています。

AI 強化プログラミングが増加している今、より強力なコンピューティングおよびグラフィック プラットフォームをお子様に提供すべきケースがあります。最新のゲームをプレイできるなどの利点は確かにありますが、新たに登場した利点は、高度な AI ツールとローカル LLM をシステム上でローカルに展開できることです。これは、多くの人が通常最初に使用するエントリー プラットフォーム (Web ブラウジングまたは生産性ソフトウェアのみに制限されている) とは対照的です。この記事では、ハイエンド GPU と高速ストレージを搭載したゲーミング PC が、エリート ゲーミング セットアップと AI を使用したコーディング学習のための効率的なプラットフォームの両方として機能する方法について説明します。

ゲームシステムをAIワークステーションに変えるというアイデアは新しいものではない。昨年、私たちはこのトピックの一部に取り組み、ゲームシステムとAIワークステーションの違いについて取り上げた。 Dell Alienware R16 および Dell Precision 5860この記事は、幅広いワークロードにおけるコンシューマー向けとワークステーション向けGPUとドライバーのパフォーマンスの違いに焦点を当てていましたが、この記事では、ゲームシステムがAI学習者に価値をもたらす理由に焦点を当てます。AIを活用するツールも減速しておらず、多くの 発表は新しい NVIDIA 50 シリーズ GPU を中心に行われました。

お子様が小中学校に通っている場合、提供されるシステムは通常、基本的な Chromebook です。これらのプラットフォームは、コスト、保守性、テクノロジーへのアクセスという点で利点がありますが、高度な使用ケースには適していません。家庭用ゲーム用 PC の登場です。これは、数え切れないほどの時間のゲームを楽しむことができ、AI 開発作業に最もコスト効率の高いハードウェアを備えています。

これは、11 歳の息子が、AI を使ってビデオ ゲームを作れるかと尋ねたことから始まりました。私は、何人かの助けを借りて、息子に Abacus.AI を紹介し、Python コードを記述するためのテキスト プロンプトの作成方法、Windows に Python をインストールして、息子が設計しているゲームを実行する方法を示しました。これは 15 分以内のことでした。息子にはプログラミングの経験がなく、私が Windows に Python 環境をインストールしたのはこれが初めてだったと思います。直接目撃するのは、とても驚くべきことでした。

AIを使ったPythonプログラミング入門

彼は、さまざまなゲームのアイデアを試してみようと躍起になっていました。最初はじゃんけんなどのテキストプロンプトゲームでしたが、それが GUI を備えたプラットフォームゲームへと進化しました。最初のバージョンは、ゲーム開始時に跳ねる小さな赤いブロックで、物理的な助けが必要でした。すぐに、プラットフォーム間を飛び回るナマケモノへと進化しました。

AI を使った Python プログラミング入門: Sloth Runner

そのゲームの最終版は、ワニのいる水の上をキャラクターたちがジャンプするナマケモノとカピバラのアドベンチャー ゲームになりました。それは、見る者にとっては非現実的な体験でしたが、適切な道具があれば、子どもたちは驚くべきことができるということを思い知らされるものでした。

AI を使った Python プログラミング入門: ナマケモノがワニをジャンプさせる

この記事では、若者から高齢者まで、家庭環境で簡単に試すことができる AI の分野をいくつか紹介します。Abacus AI、OpenAI などのクラウドベースの AI サービスは簡単に始めることができ、特別なハードウェアも必要ありません。これらの AI ツールは、テキスト、画像、ビデオ、その他数え切れ​​ないほどのモデルを幅広く提供しています。

クラウドベースのAIソリューション

クラウドベースのAIソリューションは、人工知能とのやり取りや学習方法に革命をもたらしました。これらのプラットフォームは、ユーザーが高価なハードウェアに投資することなく最先端のモデルにアクセスできるようにします。ChatGPTやAnthropicのClaudeなどの人気のオプションがあります。しかし、その汎用性と価値で際立っているプラ​​ットフォームが1つあります。 そろばん.ai.

アバカスAIプログラミング

たとえば、CodeLLM を使用すると、ユーザーはオンライン IDE で直接コードを記述しながら、チャットボットと対話してリアルタイムのサポートを受けることができます。この機能は、コーディングを学習する初心者や、プロトタイプを迅速に作成したい経験豊富な開発者に最適です。Code Playground 機能では、ユーザーがブラウザーで直接コードを実行できるため、ローカル セットアップの必要がなくなり、さらに進化しています。これは、インタラクティブなアニメーションを作成する場合に特に便利です。

Abacus には、AI を研究ワークフローに統合する Deep Research や、特定のタスク用のボットを自動的に作成できる AI Engineer などの機能も含まれています。これらの機能により、コーディングの検討、画像の生成、インタラクティブ アプリケーションの構築など、AI を簡単に使い始めることができます。基本的なラップトップや Chromebook でも、Abacus.AI のようなクラウドベースのソリューションと組み合わせると、保護者や教育者にとって強力な学習ツールになります。

ローカルAI

当然、次のような疑問が湧いてきます。クラウドベースのソリューションがそれほど安価で、アクセスしやすく、使いやすいのであれば、なぜローカル AI にこだわる必要があるのでしょうか。その答えは、ローカル AI が提供する独自の利点にあります。この利点により、ローカル AI は特定のユーザー、特にハイエンドのゲーミング PC を持っているユーザーや AI ワークフローをより細かく制御したいユーザーにとって魅力的な選択肢となります。

答えは、プライバシー、制御、アクセシビリティにあります。AI モデルをローカルで実行すると、データがマシン上に保持され、比類のないプライバシーが確保されるため、機密性の高いプロジェクトや個人使用に最適です。また、オフライン アクセスも提供されるため、接続が不安定な地域やサーバーが停止しているときでも信頼性が高まります。ヘビー ユーザーの場合、ハードウェアをセットアップすると使用料が継続的に発生しないため、ローカル AI は長期的にはコスト効率が高くなります。ローカル AI は自由度と柔軟性も提供します。モデルをカスタマイズして微調整したり、オープン ソース オプションを試したり、モデルをトレーニングしたりすることもできます。さらに、実践的なアプローチは貴重な技術スキルの構築に役立ちます。

ハードウェア要件

ローカル AI を実行するにはハードウェア上の課題が伴うため、ゲーム システムを再利用するというテーマは理にかなっています。一部のローカル AI スイートは CPU を活用できますが (これについては後述します)、ほとんどすべては GPU、具体的には NVIDIA を好みます。現在、NVIDIA GPU が最も人気があり、VRAM が制限要因となっています。40 シリーズの NVIDIA GeForce ラインナップを例に、各カードの VRAM の容量を分類します。

  • NVIDIA GeForce RTX 4050 (8GB VRAM)
  • NVIDIA GeForce RTX 4060 (12GB VRAM)
  • NVIDIA GeForce RTX 4070 (16GB VRAM)
  • NVIDIA GeForce RTX 4080 (20GB VRAM)
  • NVIDIA GeForce RTX 4090 (24GB VRAM)

一般的に、モデルのサイズやモデルの精度が増加すると、VRAM 要件が増加します。ここでは、サイズが 1B から 1.5B、精度レベルが FP70 から FP4 までの DeepSeek R8 モデルの内訳を示します。ほとんどのコンシューマー GPU は、より小さなモデル サイズに制限されることがすぐにわかります。VRAM フットプリントも、モデルで何を行うかによって変動するため、ある程度の余裕が必要です。

DeepSeek R1 モデルサイズ 推論VRAM(FP8) 推論VRAM(FP4)
1.5B 〜1.5 GB 〜0.75 GB
7B 〜7 GB 〜3.5 GB
8B 〜8 GB 〜4 GB
14B 〜14 GB 〜7 GB
32B 〜32 GB 〜16 GB
70B 〜70 GB 〜35 GB

Ollama を使って DeepSeek R1 または Llama 3.1 をローカルで実行する

Ollamaは、ローカルLLMを展開するための最も簡単な方法の1つです。Ollamaはユーザーフレンドリーで、技術的な知識があまりない人でも利用できます。そのインターフェースは、大規模言語モデル(LLM)のダウンロード、管理、および操作のプロセスを簡素化します。Windowsでは、Ollamaのインストールは簡単です。 オラマのウェブサイトをクリックし、ダウンロード(OS を選択)をクリックして、セットアップ ファイルを実行します。

Ollama ウェブサイトのスクリーンショット

インストールすると、Ollamaのコマンドラインインターフェース(CLI)を使用すると、ユーザーはollama pullなどの簡単なコマンドでモデルを簡単にプルして実行できます。そしてオラマは走る. Windows のスタート ボタンをクリックし、「cmd」と入力してコマンド プロンプトを読み込むことでアクセスできます。以下は、システムにすでにダウンロードされているモデルを示し、DeepSeek R1 14B を起動して、ナマケモノが家を建てるストーリーを書いている例です。

DeepSeek R1 LLM を実行する Ollama

Ollama は CLI 以外にも、クラウド AI ソリューションと同様のユーザー エクスペリエンスを提供する Web ベースのインターフェイスである Ollama Hub も提供しており、グラフィカル インターフェイスを好むユーザーでもアクセス可能です。

Ollama の広範なコミュニティ サポートと迅速な開発サイクルは、特に魅力的です。インストールには数秒しかかからず、モデルのダウンロードや実行に慣れるのも同じくらい速いという利点もあります。ほとんどのユーザーにとって最も長い遅延は、インターネット速度です。これらのモデルの多くは数 GB のサイズです。

ローカルLLMを実行するコンピュータリソース

ローカル LLM を実行する場合、各モデルには異なるシステム要件があり、効率的に実行するには GPU が強く推奨されることに注意してください。Ollama は、上記のシステム リソース ショットで DeepSeek R1 14B モデルを実行しますが、これは 11 GB 弱の VRAM を使用します。モデルがロードされている間、GPU はアイドル状態ですが、操作を開始するとすぐに使用量が急増します。

ローエンドハードウェアでの LLM の実行: 量子化モデル

量子化モデルは、VRAM の少ない GPU で作業するユーザーにとって実用的なソリューションを提供します。これらは基本的に LLM の圧縮バージョンであり、メモリ要件を削減して、それほど強力でない GPU でも実行できるようにします。量子化によりパフォーマンスと精度がいくらか犠牲になりますが、高度なモデルをより幅広いハードウェアで実行しやすくなります。

LLM を CPU 上で実行することも可能ですが、これにはさらなるパフォーマンスのトレードオフが伴います。CPU ベースの実行は GPU ベースの処理よりも大幅に遅くなりますが、小規模なモデルや専用 GPU にアクセスできないユーザーにとっては依然として実行可能なオプションです。

ラマ.CPP

CPU上でLLMを実行するための最も一般的な機能の1つは ラマ.cppは、大規模な言語モデルの効率的な推論用に設計された C++ ネイティブ アプリケーションです。名前にもかかわらず、llama.cpp は LLaMA モデルに限定されません。軽量設計と CPU 使用率の最適化により、控えめなハードウェアでローカル AI を試してみたいユーザーに最適です。量子化モデルをサポートすることで、llama.cpp はリソース要件をさらに削減し、コンシューマー グレードのハードウェアでも高度な LLM を効率的に実行できるようにします。

ComfyUI による安定した拡散画像生成

ローカルイメージ生成の場合、ComfyUI を使用すると簡単に始めることができます。 私たちはフォローしました 安定拡散アートのガイド インスタンスを実行します。 手順には、ポータブル 7z アーカイブで ComfyUI インスタンスをダウンロードし、フォルダーを抽出し、既存のモデル チェックポイントをダウンロードすることが含まれます。

ComfyUI を表示するフォルダー

ComfyUI の実行は、Ollama LLM とは少し異なります。ComfyUI インスタンスと保存されたチェックポイントを含むフォルダーを開き、統合型またはローエンド グラフィックスのシステムの場合は run_cpu ファイルを、強力な専用 NVIDIA グラフィックス カードの場合は run_nvidia_gpu をダブルクリックします。

NVIDIA GPU 用の ComfyUI バッチ ファイル

すると、バックグラウンドでコマンド プロンプトが読み込まれます。比較的複雑に見えますが、GUI のデフォルトの Web ブラウザーへのリンクがすぐに読み込まれます。

ComfyUI CLI 情報

表示される GUI には、画像生成モデルのワークフローが表示されますが、CLIP Text Encode プロンプト内のテキストを置き換えることで、すぐに開始できます。この例では、ビデオ ゲームをプレイしているナマケモノの画像を 512 つ生成しました。[Empty Latent Image] フィールドでは、画像の幅と高さが 1024 から 4 に変更され、画像が大きくなりました。[batch_size] は、複数の画像を同時に作成するために XNUMX に変更されました。

ComfyUI 画像生成例

まとめ: AI で次世代を育成する

AI の急速な進化と AI のアクセス性の向上により、今日のゲーミング PC は単なる娯楽以上の大きな目的に使用できます。クラウドベースのサービスや、高性能なシステムを備えたローカル インスタンスを通じて子供たちに AI への早期アクセスを提供することで、私たちは子供たちに機械学習を探求するためのツールを提供しています。子供たちは AI 主導の創造性を試し、ますます重要になる貴重なプログラミング スキルを身につけることができます。

シンプルなゲームのコーディングから、LLM の実行、AI を活用したアートの生成まで、十分な装備を備えた自宅の PC は堅牢な学習環境になります。クラウドベースの AI サービスを使用する場合でも、Ollama、ComfyUI などのツールやその他多数のツールを使用してローカル展開に取り組む場合でも、若い学習者が AI に取り組む機会はかつてないほど豊富になっています。

結局のところ、より高性能なシステムに投資するという決定は、ハードウェアをアップグレードするだけではありません。好奇心、創造性、技術スキルを育むことにもつながります。AI が未来を形作り続ける中、子供たちにこれらのテクノロジーを体験させることは、彼らの教育と発達にとって最も影響力のある投資の 1 つとなる可能性があります。

StorageReview と連携する

ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | TikTok | RSSフィード