Dev&Ops - EP052 - Docker Desktop en la era de la IA: LLMs locales y MCP Servers para DevOps
Автор: Dev&Ops
Загружено: 2026-03-16
Просмотров: 86
Описание:
La inteligencia artificial se ha robado la atención de toda la industria tecnológica, pero eso no significa que herramientas clave como Docker hayan desaparecido del flujo de trabajo de desarrollo y operaciones. En este episodio hablamos sobre cómo Docker Desktop sigue siendo una pieza fundamental en el desarrollo moderno, incluso en plena era de los agentes y los LLMs.
Exploramos cómo los equipos de desarrollo y DevOps pueden aprovechar Docker Desktop no solo para ambientes de desarrollo tradicionales, sino también para nuevos flujos de trabajo relacionados con inteligencia artificial.
En particular, analizamos dos funcionalidades interesantes que pueden integrarse fácilmente en el entorno local: Docker Model Runner para ejecutar modelos LLM locales y las herramientas de Docker para correr MCP Servers, permitiendo conectar aplicaciones de IA con servicios externos de forma más segura y estandarizada.
Si ya utilizas contenedores en tu flujo de desarrollo, estas capacidades podrían ayudarte a simplificar la integración de IA en tu stack sin añadir más herramientas externas.
🔍 En este episodio aprenderás:
Por qué Docker dejó de ser un “buzzword” pero sigue siendo clave en DevOps
Cómo Docker Desktop sigue facilitando ambientes de desarrollo locales con contenedores
Qué es Docker Model Runner y cómo permite correr LLMs locales
Cómo interactuar con modelos locales usando APIs tipo OpenAI u Ollama
Qué es Model Context Protocol (MCP) y por qué es importante para aplicaciones de IA
Cómo Docker Desktop facilita ejecutar MCP Servers de forma aislada y segura
Cuándo tiene sentido usar Docker Desktop en flujos de trabajo con inteligencia artificial
📑 Capítulos:
(00:00) Introducción: IA, buzzwords y el rol actual de Docker
(01:45) ¿Por qué Docker dejó de ser un buzzword?
(04:20) Docker Desktop en los flujos de desarrollo modernos
(07:30) Ambientes de desarrollo locales con contenedores
(10:10) Kubernetes local dentro de Docker Desktop
(13:00) Cómo la IA está cambiando el trabajo de desarrollo y operaciones
(16:20) Primer enfoque: correr modelos LLM locales
(19:10) Docker Model Runner: cómo funciona
(22:40) APIs compatibles con OpenAI y Ollama
(25:00) Segundo enfoque: qué es MCP (Model Context Protocol)
(27:20) Problemas comunes al ejecutar MCP servers
(29:40) Docker MCP Toolkit y MCP Catalog
(31:50) Docker MCP Gateway y orquestación de MCP servers
(33:10) Reflexión final: cuándo considerar Docker Desktop en la era de la IA
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: