Как бесплатно запустить локальный ИИ-ассистент для разработки на ПК
Автор: No Magic Coding
Загружено: 2026-02-28
Просмотров: 2974
Описание:
В этом видео я пошагово показываю, как запустить локальный ИИ-ассистент для разработки на обычном ПК — без облаков, без API и без подписок.
Мы развернём модель Qwen3-Coder локально через Ollama и подключим её к редактору кода с помощью Continue. Всё работает напрямую на видеокарте RTX 4070 Laptop (8 GB VRAM) и 32 GB RAM.
Разберём:
• Установку Ollama
• Выбор и запуск Qwen3-Coder
• Настройку Continue в VS Code
• Генерацию кода на реальном проекте
• Работу модели с кодовой базой
• Влияние объёма VRAM
Видео будет полезно разработчикам, которые хотят:
— использовать ИИ без передачи кода в облако
— работать без подписок и API-ключей
— контролировать модель и её поведение
— понимать архитектуру локального AI-workflow
🛠 Используемый стек
• Qwen3-Coder
• Ollama
• Continue
• VS Code
• RTX 4070 Laptop (8 GB VRAM)
• 32 GB RAM
Таймкоды:
00:00 Введение
00:24 Установка Ollama
00:50 Выбор модели
02:42 Установка Qwen3-Coder
03:20 Проверка запуска
03:48 Настройка Continue
04:58 Генерация Dashboard
06:03 Генерация Notification Service
08:11 Работа модели с кодовой базой
09:03 Выводы
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: