Cómo hacer que Ollama use tu PC
Автор: Nichonauta Lab
Загружено: 2025-11-28
Просмотров: 720
Описание:
Desata el poder de la automatización con IA. En este video te mostramos cómo usar Codex y un modelo de lenguaje local (GPT-OSS 20B en Ollama) para ejecutar comandos complejos, instalar software y automatizar tareas directamente en tu terminal, ¡sin necesidad de una costosa API!
Exploramos la instalación y configuración de Node.js y Codex para crear un agente de desarrollo versátil. Luego, lo ponemos a prueba con desafíos reales en Windows.
Puntos clave del experimento:
Instalación de Node.js y Codex desde cero.
Configuración de Codex para usar un modelo de lenguaje local y gratuito (Ollama) en lugar de servicios de pago (como GPT-4).
Prueba de automatización de comandos: Le pedimos al agente que descargue, descomprima y ejecute FFmpeg. El agente demuestra su habilidad para resolver problemas y buscar alternativas ante comandos fallidos.
Gestión de archivos: Probamos su capacidad para eliminar archivos de la ruta actual.
Instalación avanzada: Intentamos descargar e instalar Llama CPP en Windows (compilado solo con CPU), lo que demuestra la capacidad del agente para navegar por documentación, encontrar archivos específicos y descomprimirlos.
Descarga de Modelos LLM: Le pedimos que encuentre y descargue el modelo GEMA 3 270M GGUF de Hugging Face y lo ejecute con Llama CPP. Vemos cómo el agente ajusta su estrategia de descarga y ejecución.
Este enfoque no solo es 100% gratuito y sin límites, sino que también te permite un control total sobre la ejecución de comandos. Es una herramienta poderosa para desarrolladores y entusiastas de la IA que buscan simplificar tareas de configuración, instalación y automatización en sistemas operativos, especialmente en entornos basados en terminal como Linux.
¡Si te gustó esta prueba de automatización y quieres ver más videos funcionales como este, dale like y suscríbete al canal!
📝 Índice:
00:00 - Introducción y Contexto
00:33 - Descarga e Instalación de Node.js y Codex
01:08 - Configuración de Codex con Ollama (Modelo Local)
02:44 - Prueba 1: Descargar, Descomprimir y Ejecutar FFmpeg
03:59 - Ajuste de Permisos de Codex (Aprobación Completa)
04:29 - Reintento de la Tarea con FFmpeg y Solución de Errores
06:54 - Prueba 2: Eliminar Archivos de la Ruta Actual
07:43 - Prueba 3: Descargar e Instalar Llama Cpp en Windows
10:17 - Prueba 4: Buscar, Descargar y Ejecutar un Modelo Gema 3 2B en Formato GGUF
12:11 - Solución de Problemas de Descarga del Modelo (URL Directa)
14:28 - Segundo Intento de Descarga y Ejecución Exitosa del Modelo Gema 3
16:35 - Conclusiones y Reflexión sobre la Utilidad de Codex con Modelos LLM Locales
#Codex #AgenteIA #Ollama #Automatización #LlamaCPP
Contacto: [email protected]
Sitio web: nichonauta.com
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: