Пример IV: OpenClaw на VPS, LLM на локальном ПК (подробный анализ обратного SSH) - OverExplained
Автор: Prompt Engineer
Загружено: 2026-02-09
Просмотров: 1100
Описание:
В этом видео я демонстрирую четвертый вариант моей архитектуры OpenClaw — гибридную систему искусственного интеллекта, где:
• OpenClaw работает на облачном VPS (экземпляр RunPod с GPU)
• LLM-ы работают локально на моей машине с Windows с использованием Ollama
• Обе системы бесперебойно взаимодействуют, используя обратный SSH-туннель
Посмотрите серию:
Видео I: Openclaw на Runpod, Ollama на Runpod
• Deploy OpenClaw and Ollama on Cloud GPU (S...
Видео II: Openclaw локально, Ollama локально
- Ожидается-
Видео III: Openclaw локально, Ollama на Runpod
- Ожидается-
Видео IV: Openclaw на Runpod, Ollama локально
• Case IV: OpenClaw on VPS, LLM on Local PC ...
Вам понадобится GPU
GPU Runpod: https://get.runpod.io/pe48
Редактирование JSON: https://docs.google.com/document/d/12...
Эта настройка позволяет облачному приложению безопасно получать доступ к LLM-модулям, работающим на вашем локальном компьютере, и использовать их, не предоставляя прямой доступ к вашей локальной системе из интернета.
🔍 Что рассматривается в этом видео:
• Почему и когда вам может понадобиться запускать LLM локально, но оркестровать их в облаке
• Как работает обратное SSH-туннелирование (концептуально и практически)
• Настройка обратного SSH из Windows → RunPod
• Подключение OpenClaw (на VPS) к Ollama (на localhost)
• Переадресация портов, вопросы безопасности и распространенные ошибки
• Примеры использования гибридных облачно-локальных систем ИИ в реальных условиях
🧠 Почему это важно:
• Сохранение локального вывода модели (конфиденциальность, стоимость, экспериментирование)
• Сохранение использования облачных графических процессоров, оркестровки и бесперебойной работы
• Не требуется изменение публичного IP-адреса или брандмауэра на вашей локальной машине
• Идеально подходит для разработчиков, создающих агентские системы, помощников или бэкенды ИИ
Этот подход чрезвычайно эффективен для всех, кто работает с:
• Локальными LLM (Ollama, LM Studio и т. д.)
• Облачными графическими процессорами (RunPod, VPS, EC2, bare) металл)
• Проектирование безопасной сетевой инфраструктуры и инфраструктуры ИИ
Если вы создаете серьезные системы ИИ, стоит разобраться в этой настройке.
ССЫЛКИ НА КАНАЛ:
☕ Поддержите меня, купив мне кофе: https://ko-fi.com/promptengineer
📱 Поддержите меня на Patreon: / promptengineer975
📞 Свяжитесь со мной по телефону через Calendly: https://calendly.com/prompt-engineer4...
💀 Профиль на GitHub: https://github.com/PromptEngineer48
🔖 Профиль в Twitter: / prompt48
Хэштеги:
#reversessh, #sshtunneling, #runpod, #ollama, #localllm, #cloudgpu, #hybridai, #openclaw, #llminfrastructure, #aiarchitecture, #devopsforai, #selfhostedllm, #privatellm, #windowsollama, #vpsgpu, #aiagents, #securetunneling, #portforwarding, #aibackend
Временные метки:
0:00 Вступление
1:32 Runpod
2:22 Настройка VPS
4:04 Обновление и апгрейд
4:25 Установка Ollama
4:50 Установка OpenClaw
6:02 Интеграция с Telegram
7:54 Загрузка моделей
9:50 Объяснение Curl
10:30 set 0
10:57 Обратный туннель SSH
13:10 Редактирование JSON с помощью nano
15:34 Демонстрация
17:10 Заключение
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: