Конференция NeurIPS 2025 в Сан-Диего. Теряет ли программа LLM разнообразие после очного обучения?...
Автор: Women in AI Research WiAIR
Загружено: 2025-12-18
Просмотров: 83
Описание:
Почему большие языковые модели становятся менее креативными после обучения с подкреплением и тонкой настройки?
ССЫЛКА НА СТАТЬЮ:
• Artificial Hivemind (награда за лучшую статью на #NeurIPS 2025): https://arxiv.org/abs/2510.22954
• Один из авторов Artificial Hivemind был гостем нашего подкаста: • Limits of Transformers, with Dr. Nouha Dziri
Йеджин Чой (@stanford и @NVIDIA) анализирует удивительное и широко наблюдаемое явление в обучении больших языковых моделей:
👉 Предварительное обучение приводит к богатым и разнообразным распределениям
👉 Постобучение (SFT и RL) может искажать ответы и снижать креативность
Опираясь на отмеченные наградами исследования (включая статью об Artificial Hivemind), она объясняет, почему оба наблюдения могут быть верны одновременно, и как такие факторы, как разнообразие данных, контроль энтропии и экспериментальная установка, определяют, обобщают ли модели или разрушаются.
Обязательно к просмотру для всех, кто занимается разработкой, обучением или оценкой больших языковых моделей.
#YejinChoi #neurips2025 #LLMTraining #RLHF #Pretraining #AIResearch
#LargeLanguageModels #MachineLearning #DeepLearning #wiair #wiairpodcast
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: