AI가 강화된 프로그래밍이 증가함에 따라, 자녀에게 보다 강력한 컴퓨팅 및 그래픽 플랫폼을 제공해야 할 필요성이 대두되고 있습니다.
AI 강화 프로그래밍이 증가함에 따라 자녀에게 더 강력한 컴퓨팅 및 그래픽 플랫폼을 제공해야 할 경우가 있습니다. 최신 게임을 플레이하는 것과 같은 이점이 있지만, 새로운 이점은 시스템에서 고급 AI 도구와 로컬 LLM을 로컬로 롤아웃할 수 있는 기능입니다. 이는 일반적으로 많은 사람이 시작하는 엔트리 플랫폼과 극명하게 대조되는데, 이 플랫폼은 웹 브라우징이나 생산성 소프트웨어로만 제한됩니다. 이 기사에서는 하이엔드 GPU와 빠른 스토리지가 탑재된 게임용 PC가 엘리트 게임 설정과 AI로 코딩하는 법을 배우기 위한 효율적인 플랫폼 역할을 할 수 있는 방법을 살펴봅니다.
게임 시스템을 AI 워크스테이션으로 전환한다는 아이디어는 새로운 것이 아닙니다. 우리는 작년에 이 주제의 일부에 대해 다음과 같은 차이점을 다룬 기사에서 접근했습니다. Dell Alienware R16 및 Dell Precision 5860. 해당 기사는 광범위한 워크로드에서 소비자 및 워크스테이션 등급 GPU와 드라이버 간의 성능 차이에 초점을 맞추었지만, 이 기사에서는 게임 시스템이 AI로 학습하는 사람에게 가치를 더할 수 있는 이유에 초점을 맞출 것입니다. AI를 활용하는 도구도 속도가 느려지지 않고 있으며, 새로운 NVIDIA 50 시리즈 GPU를 중심으로 한 발표.
K-12 학교에 자녀가 있는 경우 제공되는 시스템은 일반적으로 기본 Chromebook입니다. 이러한 플랫폼은 비용, 서비스성 및 기술 접근성 측면에서 이점이 있지만 고급 사용 사례에는 적합하지 않습니다. 홈 게임용 PC를 사용하면 수많은 시간 동안 게임을 즐길 수 있지만 AI 개발 작업에 가장 비용 효율적인 하드웨어가 장착되어 제공됩니다.
이것은 제 11살 아들이 AI를 사용하여 비디오 게임을 만들 수 있냐고 물었을 때 시작되었습니다. 약간의 도움을 받아 저는 그에게 Abacus.AI를 소개하고 Python 코드를 작성하고 Windows에 Python을 설치하고 그가 디자인하는 게임을 실행하는 텍스트 프롬프트를 만드는 방법을 보여주었습니다. 이것은 15분 만에 이루어졌습니다. 그는 프로그래밍 경험이 없었고, 제가 Windows에 Python 환경을 설치한 것은 이번이 처음이었던 것 같습니다. 직접 목격하는 것은 매우 놀라운 일이었습니다.
그는 다양한 게임 아이디어를 시도하며 굴러갔습니다. 가위바위보와 같은 텍스트 프롬프트 게임이 처음이었지만 GUI가 있는 플랫폼 게임으로 발전했습니다. 첫 번째 버전은 게임이 시작되면서 튀는 작은 빨간색 블록이었고 약간의 물리학적 도움이 필요했습니다. 그것은 빠르게 플랫폼을 가로질러 점프하는 나무늘보로 발전했습니다.
그 게임의 최종 버전은 악어로 가득 찬 물 위를 뛰어 넘는 캐릭터들의 나태함과 카피바라 모험 게임으로 바뀌었습니다. 지켜보는 것은 초현실적인 경험이었지만, 아이들이 앞에 적절한 도구가 있다면 놀라운 일을 할 수 있다는 점을 잘 보여줍니다.
이 글에서는 젊은 세대와 노년층 모두를 위해 가정 환경에서 쉽게 탐색할 수 있는 몇 가지 AI 영역을 살펴보겠습니다. Abacus AI, OpenAI 등과 같은 클라우드 기반 AI 제품은 시작하기 쉽고 특수 하드웨어가 필요하지 않습니다. 이러한 AI 도구는 광범위한 텍스트, 이미지, 비디오 및 기타 수많은 모델을 제공합니다.
클라우드 기반 AI 솔루션
클라우드 기반 AI 솔루션은 우리가 인공 지능과 상호작용하고 이를 통해 학습하는 방식에 혁명을 일으켰습니다. 이러한 플랫폼은 사용자가 값비싼 하드웨어에 투자할 필요 없이 최첨단 모델에 액세스할 수 있도록 합니다. ChatGPT 및 Anthropic의 Claude와 같은 인기 있는 옵션입니다. 그러나 다재다능함과 가치로 돋보이는 한 가지 플랫폼은 다음과 같습니다. 주판.ai.
예를 들어, CodeLLM을 사용하면 사용자가 실시간 지원을 위해 챗봇과 상호 작용하는 동안 온라인 IDE에서 직접 코딩할 수 있습니다. 이 기능은 코딩을 배우는 초보자나 빠르게 프로토타입을 만들고자 하는 숙련된 개발자에게 적합합니다. Code Playground 기능은 사용자가 브라우저에서 직접 코드를 실행하여 로컬 설정이 필요 없도록 하여 한 단계 더 나아갑니다. 이는 대화형 애니메이션을 만드는 데 특히 유용합니다.
Abacus에는 AI를 연구 워크플로에 통합하는 Deep Research와 특정 작업을 위한 봇을 자동으로 생성할 수 있는 AI Engineer와 같은 기능도 포함되어 있습니다. 이러한 기능을 사용하면 코딩을 탐색하든, 이미지를 생성하든, 대화형 애플리케이션을 구축하든 AI를 쉽게 시작할 수 있습니다. 기본적인 노트북이나 Chromebook도 Abacus.AI와 같은 클라우드 기반 솔루션과 페어링하면 부모나 교육자에게 강력한 학습 도구가 될 수 있습니다.
로컬 AI
자연스럽게 떠오르는 의문은 다음과 같습니다. 클라우드 기반 솔루션이 그렇게 저렴하고, 접근성이 좋고, 사용하기 쉬운데, 왜 로컬 AI를 신경 써야 할까요? 답은 로컬 AI가 제공하는 고유한 이점에 있습니다. 이는 특정 사용자, 특히 하이엔드 게임용 PC를 사용하거나 AI 워크플로우를 더 많이 제어하려는 사용자에게 매력적인 선택이 될 수 있습니다.
답은 프라이버시, 제어 및 접근성에 있습니다. AI 모델을 로컬에서 실행하면 데이터가 머신에 유지되어 타의 추종을 불허하는 프라이버시를 제공하며 민감한 프로젝트나 개인적인 용도에 이상적입니다. 또한 오프라인 액세스를 제공하여 연결성이 좋지 않은 지역이나 서버 중단 시에도 안정적으로 사용할 수 있습니다. 많은 사용자의 경우 하드웨어가 설정되면 사용에 대한 반복적인 요금이 없으므로 로컬 AI가 장기적으로 더 비용 효율적일 수 있습니다. 로컬 AI는 또한 자유와 유연성을 제공합니다. 모델을 사용자 지정하고 미세 조정하고, 오픈 소스 옵션을 실험하고, 심지어 모델을 훈련할 수도 있습니다. 또한 실습적인 접근 방식은 귀중한 기술 능력을 구축하는 데 도움이 됩니다.
하드웨어 요구 사항
로컬 AI를 실행하려면 하드웨어 문제가 발생하므로 게임 시스템을 로컬 AI에 재활용하는 주제가 합리적입니다. 일부 로컬 AI 제품군은 아래에서 논의하는 CPU를 활용할 수 있지만 거의 모든 제품군이 GPU, 특히 NVIDIA를 선호합니다. 현재 NVIDIA GPU가 가장 인기가 많으며 VRAM이 게이팅 요소입니다. 40시리즈 NVIDIA GeForce 라인업을 예로 들어 각 카드의 VRAM 용량을 분석해 보겠습니다.
- NVIDIA GeForce RTX 4050(8GB VRAM)
- NVIDIA GeForce RTX 4060(12GB VRAM)
- NVIDIA GeForce RTX 4070(16GB VRAM)
- NVIDIA GeForce RTX 4080(20GB VRAM)
- NVIDIA GeForce RTX 4090(24GB VRAM)
일반적으로 모델 크기나 모델의 정밀도를 높이면 VRAM 요구 사항도 증가합니다. 다음은 크기가 1B에서 1.5B까지이고 정밀도 수준이 FP70에서 FP4인 DeepSeek R8 모델의 세부 정보입니다. 대부분의 소비자용 GPU는 더 작은 모델 크기로 제한된다는 것을 금방 깨닫게 될 것입니다. VRAM 풋프린트는 모델에서 무엇을 하는지에 따라 변동되므로 약간의 여유 공간이 필요합니다.
DeepSeek R1 모델 크기 | 추론 VRAM(FP8) | 추론 VRAM(FP4) |
---|---|---|
1.5B | ~ 1.5 GB | ~ 0.75 GB |
7B | ~ 7 GB | ~ 3.5 GB |
8B | ~ 8 GB | ~ 4 GB |
14B | ~ 14 GB | ~ 7 GB |
32B | ~ 32 GB | ~ 16 GB |
70B | ~ 70 GB | ~ 35 GB |
Ollama를 사용하여 로컬로 DeepSeek R1 또는 Llama 3.1 실행
Ollama는 로컬 LLM을 배포하는 가장 간단한 방법 중 하나입니다. Ollama는 사용자 친화적이어서 기술에 대한 지식이 많지 않은 사람도 쉽게 사용할 수 있습니다. 인터페이스는 대규모 언어 모델(LLM)을 다운로드, 관리 및 상호 작용하는 프로세스를 간소화합니다. Windows에서 Ollama를 설치하는 것은 간단합니다. 올라마 웹사이트, 다운로드(OS 선택)를 클릭한 다음, 해당 설치 파일을 실행합니다.
Ollama의 명령줄 인터페이스(CLI)를 설치하면 사용자는 ollama pull과 같은 간단한 명령으로 모델을 쉽게 가져오고 실행할 수 있습니다. 그리고 올라마가 달려요 . Windows 시작 버튼을 클릭하고 "cmd"를 입력한 다음 명령 프롬프트를 로드하면 액세스할 수 있습니다. 아래는 시스템에 이미 다운로드된 모델을 보여주고 DeepSeek R1 14B를 시작하며 나무늘보가 집을 짓는 것에 대한 스토리를 쓰는 예입니다.
Ollama는 CLI 외에도 클라우드 AI 솔루션과 유사한 사용자 경험을 제공하는 웹 기반 인터페이스인 Ollama Hub를 제공하여 그래픽 인터페이스를 선호하는 사람들도 쉽게 접근할 수 있습니다.
Ollama의 광범위한 커뮤니티 지원과 빠른 개발 주기는 특히 매력적입니다. 또한 설치하는 데 몇 초가 걸리고 누군가에게 모델을 다운로드하거나 실행하는 방법을 알려주는 것도 마찬가지로 빠르다는 장점이 있습니다. 대부분 사용자에게 가장 오래 걸리는 지연은 인터넷 속도일 것입니다. 이러한 모델 중 다수가 크기가 수 GB에 달하기 때문입니다.
로컬 LLM을 실행하려는 경우 각 모델의 시스템 요구 사항이 다르며, 효율적으로 실행하려면 GPU가 매우 선호됩니다. Ollama는 위의 시스템 리소스 샷에서 DeepSeek R1 14B 모델을 실행하는데, 이는 11GB 미만의 VRAM을 사용합니다. 모델이 로드되는 동안 GPU는 유휴 상태이지만, GPU와 상호 작용을 시작하자마자 사용량이 급증합니다.
하위 하드웨어에서 LLM 실행: 양자화된 모델
양자화된 모델은 낮은 VRAM GPU로 작업하는 사용자에게 실용적인 솔루션을 제공합니다. 이는 본질적으로 메모리 요구 사항을 줄여 덜 강력한 GPU에서 실행할 수 있도록 하는 LLM의 압축 버전입니다. 양자화는 일부 성능과 정확도를 희생하지만 고급 모델을 더 광범위한 하드웨어에서 실행할 수 있게 해줍니다.
CPU에서 LLM을 실행하는 것도 가능하지만, 여기에는 추가적인 성능 저하가 따릅니다. CPU 기반 실행은 GPU 기반 처리보다 상당히 느리지만, 전용 GPU에 액세스할 수 없는 소규모 모델이나 사용자에게는 여전히 실행 가능한 옵션이 될 수 있습니다.
라마.CPP
CPU에서 LLM을 실행하는 가장 인기 있는 기능 중 하나는 다음과 같습니다. 라마.cpp, 대규모 언어 모델의 효율적인 추론을 위해 설계된 C++ 네이티브 애플리케이션입니다. 이름과 달리 llama.cpp는 LLaMA 모델에 국한되지 않습니다. 가벼운 디자인과 CPU 사용 최적화로 인해 적당한 하드웨어에서 로컬 AI를 실험하려는 사용자에게 탁월한 선택입니다. llama.cpp는 양자화된 모델을 지원하여 리소스 요구 사항을 더욱 줄여 소비자 등급 하드웨어에서도 고급 LLM을 효율적으로 실행할 수 있습니다.
ComfyUI를 사용한 안정적인 확산 이미지 생성
로컬 이미지 생성의 경우 ComfyUI를 사용하면 쉽게 시작할 수 있습니다. 우리는 따랐다 안정된 확산 예술에 대한 가이드 인스턴스를 실행하려면 이 단계에는 휴대용 7z 아카이브에서 ComfyUI 인스턴스를 다운로드하고, 폴더를 추출하고, 기존 모델 검사점을 다운로드하는 과정이 포함됩니다.
ComfyUI를 실행하는 것은 Ollama LLM과 약간 다릅니다. ComfyUI 인스턴스와 저장된 체크포인트가 있는 폴더를 열고, 통합 또는 로우엔드 그래픽이 있는 시스템이 있는 경우 run_cpu 파일을 두 번 클릭하고, 강력한 전용 NVIDIA 그래픽 카드가 있는 경우 run_nvidia_gpu 파일을 두 번 클릭합니다.
그러면 백그라운드에서 명령 프롬프트가 로드됩니다. 비교적 복잡해 보이지만 GUI를 위해 기본 웹 브라우저로의 링크를 빠르게 로드합니다.
GUI는 이미지 생성 모델의 워크플로를 보여주지만, CLIP Text Encode 프롬프트 내부의 텍스트를 바꿔서 바로 시작할 수도 있습니다. 이 예에서 우리는 비디오 게임을 하는 나무늘보의 이미지 512개를 생성했습니다. Empty Latent Image 필드에서 이미지의 너비와 높이를 1024에서 4로 변경하여 더 크게 만들었습니다. "batch_size"를 XNUMX로 변경하여 여러 개를 동시에 만들었습니다.
마무리 생각: AI로 차세대를 강화하다
AI의 급속한 진화와 증가하는 접근성은 오늘날의 게임용 PC가 단순한 엔터테인먼트 이상의 훨씬 더 큰 목적을 제공할 수 있음을 의미합니다. 클라우드 기반 오퍼링이나 유능한 시스템을 갖춘 로컬 인스턴스를 통해 어린이에게 AI에 대한 조기 액세스를 제공함으로써, 우리는 그들에게 머신 러닝을 탐구할 수 있는 도구를 제공하고 있습니다. 그들은 AI 기반 창의성을 실험하고 점점 더 관련성이 높아질 귀중한 프로그래밍 기술을 개발할 수 있습니다.
간단한 게임 코딩부터 LLM 실행 및 AI 기반 아트 생성까지, 잘 갖춰진 홈 PC는 강력한 학습 환경이 될 수 있습니다. 클라우드 기반 AI 서비스를 사용하든 Ollama, ComfyUI 또는 수많은 다른 도구와 같은 도구를 사용하여 로컬 배포에 뛰어들든, 젊은 학습자가 AI에 참여할 수 있는 기회는 그 어느 때보다 풍부합니다.
궁극적으로, 더 유능한 시스템에 투자하기로 한 결정은 단순히 하드웨어를 업그레이드하는 것이 아니라 호기심, 창의성, 기술적 능력을 기르는 것입니다. AI가 미래를 계속 형성함에 따라, 아이들이 이러한 기술을 실험할 수 있도록 하는 것은 교육과 발달에 가장 큰 영향을 미치는 투자 중 하나가 될 수 있습니다.
StorageReview에 참여
뉴스레터 | 유튜브 | 팟캐스트 iTunes/스포티 파이 | 인스타그램 | 트위터 | 틱톡 서비스 | RSS 피드