ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Cómo hacer que Ollama use tu PC

Codex

Node.js

Ollama

FFmpeg

instalación

configuración

desarrollo

agente de IA

modelo de lenguaje

línea de comandos

terminal

CMD

GPT-OSS-20B

Llama CPP

Gema 3

descargar

ejecutar comandos

automatización

servidor local

programación

útil

tutorial

gratis

sin límites

IA open source

cómo hacer que ollama use el pc

cómo hacer que ollama use tu pc

cómo hacer que ollama use mi pc

Автор: Nichonauta Lab

Загружено: 2025-11-28

Просмотров: 720

Описание: Desata el poder de la automatización con IA. En este video te mostramos cómo usar Codex y un modelo de lenguaje local (GPT-OSS 20B en Ollama) para ejecutar comandos complejos, instalar software y automatizar tareas directamente en tu terminal, ¡sin necesidad de una costosa API!

Exploramos la instalación y configuración de Node.js y Codex para crear un agente de desarrollo versátil. Luego, lo ponemos a prueba con desafíos reales en Windows.

Puntos clave del experimento:

Instalación de Node.js y Codex desde cero.

Configuración de Codex para usar un modelo de lenguaje local y gratuito (Ollama) en lugar de servicios de pago (como GPT-4).

Prueba de automatización de comandos: Le pedimos al agente que descargue, descomprima y ejecute FFmpeg. El agente demuestra su habilidad para resolver problemas y buscar alternativas ante comandos fallidos.

Gestión de archivos: Probamos su capacidad para eliminar archivos de la ruta actual.

Instalación avanzada: Intentamos descargar e instalar Llama CPP en Windows (compilado solo con CPU), lo que demuestra la capacidad del agente para navegar por documentación, encontrar archivos específicos y descomprimirlos.

Descarga de Modelos LLM: Le pedimos que encuentre y descargue el modelo GEMA 3 270M GGUF de Hugging Face y lo ejecute con Llama CPP. Vemos cómo el agente ajusta su estrategia de descarga y ejecución.

Este enfoque no solo es 100% gratuito y sin límites, sino que también te permite un control total sobre la ejecución de comandos. Es una herramienta poderosa para desarrolladores y entusiastas de la IA que buscan simplificar tareas de configuración, instalación y automatización en sistemas operativos, especialmente en entornos basados en terminal como Linux.

¡Si te gustó esta prueba de automatización y quieres ver más videos funcionales como este, dale like y suscríbete al canal!

📝 Índice:
00:00 - Introducción y Contexto
00:33 - Descarga e Instalación de Node.js y Codex
01:08 - Configuración de Codex con Ollama (Modelo Local)
02:44 - Prueba 1: Descargar, Descomprimir y Ejecutar FFmpeg
03:59 - Ajuste de Permisos de Codex (Aprobación Completa)
04:29 - Reintento de la Tarea con FFmpeg y Solución de Errores
06:54 - Prueba 2: Eliminar Archivos de la Ruta Actual
07:43 - Prueba 3: Descargar e Instalar Llama Cpp en Windows
10:17 - Prueba 4: Buscar, Descargar y Ejecutar un Modelo Gema 3 2B en Formato GGUF
12:11 - Solución de Problemas de Descarga del Modelo (URL Directa)
14:28 - Segundo Intento de Descarga y Ejecución Exitosa del Modelo Gema 3
16:35 - Conclusiones y Reflexión sobre la Utilidad de Codex con Modelos LLM Locales

#Codex #AgenteIA #Ollama #Automatización #LlamaCPP

Contacto: [email protected]
Sitio web: nichonauta.com

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Cómo hacer que Ollama use tu PC

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]