ИИ читает книги | Большой контекст в LLM | Настройки LMStudio
Автор: РобоСтрой - робототехника, софт и электроника
Загружено: 2025-09-27
Просмотров: 6102
Описание: Вмещаем 30B модель с контекстом 48к в 16Gb VRAM. Просим ИИ отвечать по заданному тексту без RAG. Разбираем параметры в LMStudio. Что такое KV-cache, Flash Attention.
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: