Con el aumento de la programación mejorada con IA, es conveniente brindarles a sus hijos una plataforma de computación y gráficos más potente.
Con el auge de la programación mejorada con IA, es conveniente ofrecer a los niños una plataforma de computación y gráficos más potente. Sí, existen beneficios, como poder jugar a los juegos más recientes, pero un beneficio emergente es la capacidad de implementar herramientas de IA avanzadas y LLM locales en el sistema. Esto contrasta marcadamente con las plataformas de entrada con las que muchos suelen empezar, que se limitan a la navegación web o al software de productividad únicamente. En este artículo, exploramos cómo una PC para juegos, equipada con una GPU de alta gama y almacenamiento rápido, puede servir como una configuración de juegos de élite y una plataforma eficiente para aprender a codificar con IA.
La idea de un sistema de juego convertido en una estación de trabajo de IA no es nueva; abordamos parte de este tema en un artículo del año pasado que cubría las diferencias entre Dell Alienware R16 y Dell Precision 5860Si bien ese artículo se centró en las diferencias de rendimiento entre las GPU y los controladores de nivel de consumidor y de estación de trabajo en una amplia gama de cargas de trabajo, este artículo se centrará en por qué un sistema de juegos puede agregar valor para alguien que aprende con IA. Las herramientas que aprovechan la IA tampoco están disminuyendo su velocidad, y muchas anuncios centrados en las nuevas GPU NVIDIA serie 50.
Si tienes un hijo en una escuela primaria y secundaria, el sistema que se te proporcionará será generalmente una Chromebook básica. Estas plataformas tienen ventajas desde el punto de vista del costo, la facilidad de mantenimiento y el acceso a la tecnología, pero no funcionan muy bien para casos de uso avanzados. En este caso, aparece la PC para juegos en el hogar, que puede ofrecer incontables horas de diversión de juego, pero viene equipada con algunos de los equipos más rentables para el trabajo de desarrollo de IA.
Todo empezó cuando mi hijo de 11 años me preguntó si podía usar IA para crear un videojuego. Con algo de ayuda, le presenté Abacus.AI y le mostré cómo crear un mensaje de texto para escribir código Python, instalar Python en Windows y ejecutar los juegos que estaba diseñando. Esto sucedió en un lapso de 15 minutos. No tenía experiencia en programación y creo que era la primera vez que instalaba un entorno Python en Windows. Fue bastante notable presenciarlo de primera mano.
Estaba en racha con diferentes ideas de juegos para probar. Primero fueron los juegos con indicaciones de texto, como piedra, papel o tijera, pero eso evolucionó a un juego de plataformas con una interfaz gráfica de usuario. La primera versión era un pequeño bloque rojo que podía rebotar cuando comenzaba el juego y necesitaba algo de ayuda de la física. Rápidamente evolucionó a un perezoso que saltaba entre plataformas.
La versión final de ese juego se convirtió en un juego de aventuras de perezosos y capibaras en el que los personajes saltaban sobre aguas llenas de caimanes. Fue una experiencia surrealista, pero nos demuestra que los niños pueden hacer cosas asombrosas con las herramientas adecuadas.
En este artículo, exploraremos algunas áreas de la IA que se pueden explorar fácilmente en un entorno doméstico tanto para audiencias más jóvenes como mayores. Las ofertas de IA basadas en la nube, como Abacus AI, OpenAI y otras, son fáciles de comenzar y no requieren ningún hardware especializado. Estas herramientas de IA ofrecen una amplia gama de texto, imágenes, videos e innumerables otros modelos.
Soluciones de inteligencia artificial basadas en la nube
Las soluciones de IA basadas en la nube han revolucionado la forma en que interactuamos y aprendemos de la inteligencia artificial. Estas plataformas brindan acceso a modelos de vanguardia sin requerir que los usuarios inviertan en hardware costoso: opciones populares como ChatGPT y Claude de Anthropic. Sin embargo, una plataforma que se destaca por su versatilidad y valor es Ábaco.ai.
Por ejemplo, CodeLLM permite a los usuarios codificar directamente en un IDE en línea mientras interactúan con un chatbot para recibir asistencia en tiempo real. Esta función es perfecta para principiantes que están aprendiendo a codificar o para desarrolladores experimentados que buscan crear prototipos rápidamente. La función Code Playground va más allá al permitir a los usuarios ejecutar su código directamente en el navegador, lo que elimina la necesidad de una configuración local. Esto es particularmente útil para crear animaciones interactivas.
Abacus también incluye funciones como Deep Research, que integra la IA en los flujos de trabajo de investigación, y un ingeniero de IA, que puede crear automáticamente bots para tareas específicas. Estas funciones facilitan el inicio en el uso de la IA, ya sea que esté explorando la codificación, generando imágenes o creando aplicaciones interactivas. Incluso una computadora portátil básica o una Chromebook pueden convertirse en una poderosa herramienta de aprendizaje para padres o educadores cuando se combinan con una solución basada en la nube como Abacus.AI.
IA local
Surge una pregunta natural: si las soluciones basadas en la nube son tan económicas, accesibles y fáciles de usar, ¿por qué molestarse siquiera con la IA local? La respuesta está en las ventajas únicas que ofrece la IA local, que pueden convertirla en una opción atractiva para usuarios específicos, especialmente aquellos con PC para juegos de alta gama o que desean un mayor control sobre sus flujos de trabajo de IA.
La respuesta está en la privacidad, el control y la accesibilidad. Ejecutar modelos de IA localmente garantiza que sus datos permanezcan en su máquina, lo que ofrece una privacidad inigualable y es ideal para proyectos confidenciales o uso personal. También proporciona acceso sin conexión, lo que lo hace confiable en áreas con mala conectividad o durante interrupciones del servidor. Para los usuarios intensivos, la IA local puede ser más rentable a largo plazo, ya que no hay tarifas recurrentes por el uso una vez que se configura el hardware. La IA local también ofrece libertad y flexibilidad. Puede personalizar y ajustar los modelos, experimentar con opciones de código abierto e incluso entrenar sus modelos. Además, un enfoque práctico ayudará a desarrollar habilidades técnicas valiosas.
Requisitos de hardware
La ejecución de una IA local presenta algunos desafíos de hardware, por lo que tiene sentido reutilizar un sistema de juegos para ello. Si bien algunas suites de IA local pueden aprovechar una CPU, que analizamos a continuación, casi todas prefieren una GPU, específicamente NVIDIA. Actualmente, las GPU NVIDIA son las más populares, y la VRAM es un factor de restricción. Tomando la línea NVIDIA GeForce de la serie 40 como ejemplo, desglosamos cuánta VRAM tiene cada tarjeta:
- NVIDIA GeForce RTX 4050 (8 GB de VRAM)
- NVIDIA GeForce RTX 4060 (12 GB de VRAM)
- NVIDIA GeForce RTX 4070 (16 GB de VRAM)
- NVIDIA GeForce RTX 4080 (20 GB de VRAM)
- NVIDIA GeForce RTX 4090 (24 GB de VRAM)
En términos generales, a medida que aumenta el tamaño del modelo o la precisión del mismo, aumentan los requisitos de VRAM. A continuación, se muestra un desglose de los modelos DeepSeek R1 que van desde 1.5 B a 70 B en tamaño y niveles de precisión de FP4 a FP8. Rápidamente se dará cuenta de que la mayoría de las GPU de consumo estarán limitadas a tamaños de modelo más pequeños. El espacio de VRAM también fluctuará según lo que haga con el modelo, por lo que necesita algo de margen.
Tamaño del modelo DeepSeek R1 | VRAM de inferencia (FP8) | VRAM de inferencia (FP4) |
---|---|---|
1.5B | ~ 1.5 GB | ~ 0.75 GB |
7B | ~ 7 GB | ~ 3.5 GB |
8B | ~ 8 GB | ~ 4 GB |
14B | ~ 14 GB | ~ 7 GB |
32B | ~ 32 GB | ~ 16 GB |
70B | ~ 70 GB | ~ 35 GB |
Ejecutar DeepSeek R1 o Llama 3.1 localmente con Ollama
Ollama es uno de los métodos más sencillos para implementar un LLM local. Ollama es fácil de usar, lo que lo hace accesible incluso para aquellos que no tienen conocimientos técnicos profundos. Su interfaz simplifica el proceso de descarga, administración e interacción con modelos de lenguaje grandes (LLM). En Windows, la instalación de Ollama es sencilla. Diríjase a la Sitio web de Ollama, haga clic en descargar (elija su sistema operativo) y luego ejecute el archivo de instalación.
Una vez instalada, la interfaz de línea de comandos (CLI) de Ollama permite a los usuarios extraer y ejecutar modelos fácilmente con comandos simples, como ollama pull y olama corre Para acceder a esto, haga clic en el botón Inicio de Windows, escriba “cmd” y cargue el símbolo del sistema. A continuación, se muestra un ejemplo que muestra modelos ya descargados en el sistema, iniciando DeepSeek R1 14B y escribiendo una historia sobre un perezoso que construye una casa.
Más allá de la CLI, Ollama también ofrece Ollama Hub, una interfaz basada en web que proporciona una experiencia de usuario similar a las soluciones de IA en la nube, haciéndola accesible incluso para aquellos que prefieren una interfaz gráfica.
El amplio soporte de la comunidad y el rápido ciclo de desarrollo de Ollama lo hacen particularmente atractivo. También tiene la ventaja de que su instalación lleva unos segundos, y que hacer que alguien se familiarice con la descarga o la ejecución de modelos es igual de rápido. El mayor retraso para la mayoría de los usuarios será la velocidad de Internet, ya que muchos de estos modelos tienen un tamaño de varios GB.
Es importante tener en cuenta que, si pretendes ejecutar un LLM local, cada modelo tendrá diferentes requisitos de sistema, y es preferible una GPU para ejecutar las cosas de manera eficiente. Ollama ejecuta el modelo DeepSeek R1 14B en la imagen de recursos del sistema anterior, que utiliza poco menos de 11 GB de VRAM. Mientras el modelo está cargado, la GPU permanece inactiva, pero el uso aumentará tan pronto como comiences a interactuar con ella.
Ejecución de LLM en hardware de gama baja: modelos cuantificados
Los modelos cuantizados ofrecen una solución práctica para los usuarios que trabajan con GPU con menor VRAM. Básicamente, se trata de versiones comprimidas de los LLM que reducen los requisitos de memoria, lo que les permite ejecutarse en GPU menos potentes. Si bien la cuantización implica una pérdida de rendimiento y precisión, hace que la ejecución de modelos avanzados sea más accesible para una gama más amplia de hardware.
También es posible ejecutar LLM en CPU, aunque esto implica una desventaja adicional en términos de rendimiento. La ejecución basada en CPU es significativamente más lenta que el procesamiento basado en GPU, pero aún puede ser una opción viable para modelos más pequeños o usuarios sin acceso a una GPU dedicada.
Llama.CPP
Una de las capacidades más populares para ejecutar LLM en CPU es llama.cpp, una aplicación nativa de C++ diseñada para la inferencia eficiente de modelos de lenguaje grandes. A pesar de su nombre, llama.cpp no se limita a los modelos LLaMA. Su diseño liviano y su optimización para el uso de la CPU lo convierten en una excelente opción para los usuarios que desean experimentar con IA local en hardware modesto. Al admitir modelos cuantizados, llama.cpp reduce aún más los requisitos de recursos, lo que permite que incluso el hardware de nivel de consumidor ejecute LLM avanzados de manera eficiente.
Generación de imágenes de difusión estable con ComfyUI
Para la generación de imágenes locales, ComfyUI es una forma sencilla de comenzar. Nosotros seguimos La guía sobre el arte de difusión estable para poner la instancia en ejecución. Los pasos implican descargar la instancia de ComfyUI en un archivo 7z portátil, extraer la carpeta y descargar un punto de control de modelo existente.
Ejecutar ComfyUI es un poco diferente a ejecutar Ollama LLM. Abra la carpeta con la instancia de ComfyUI y el punto de control guardado, luego haga doble clic en el archivo run_cpu si tiene un sistema con gráficos integrados o de gama baja o en run_nvidia_gpu si tiene una tarjeta gráfica NVIDIA dedicada y robusta.
A continuación, se cargará un símbolo del sistema en segundo plano. Parece relativamente complejo, pero carga rápidamente un enlace a su navegador web predeterminado para su interfaz gráfica de usuario.
La GUI que se le presentará muestra el flujo de trabajo del modelo de generación de imágenes, aunque puede comenzar directamente reemplazando el texto dentro del mensaje CLIP Text Encode. En este ejemplo, generamos cuatro imágenes de un perezoso jugando un videojuego. En el campo Empty Latent Image, el ancho y la altura de las imágenes se cambiaron de 512 a 1024 para hacerlas más grandes. El “batch_size” se cambió a 4 para hacer múltiples imágenes simultáneamente.
Reflexiones finales: cómo empoderar a la próxima generación con inteligencia artificial
La rápida evolución de la IA y su creciente accesibilidad significan que las PC para juegos de hoy pueden cumplir una función mucho mayor que el mero entretenimiento. Al brindarles a los niños acceso temprano a la IA a través de ofertas basadas en la nube o en instancias locales con sistemas capaces, les estamos dando las herramientas para explorar el aprendizaje automático. Pueden experimentar con la creatividad impulsada por la IA y desarrollar habilidades de programación valiosas que serán cada vez más relevantes.
Desde la codificación de juegos sencillos hasta la gestión de cursos de maestría en derecho y la generación de arte impulsado por IA, una PC doméstica bien equipada puede convertirse en un entorno de aprendizaje sólido. Ya sea que se utilicen servicios de IA basados en la nube o se sumerjan en implementaciones locales con herramientas como Ollama, ComfyUI o muchas otras, las oportunidades para que los estudiantes jóvenes interactúen con la IA son más abundantes que nunca.
En definitiva, la decisión de invertir en un sistema más capaz no se limita a actualizar el hardware, sino que se trata de fomentar la curiosidad, la creatividad y las habilidades técnicas. A medida que la IA sigue dando forma al futuro, permitir que los niños experimenten con estas tecnologías podría ser una de las inversiones más eficaces en su educación y desarrollo.
Interactuar con StorageReview
Boletín | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed