Регуляризация (L1/L2/ElasticNet) | Почему веса обнуляются при L1-регуляризации? | Объяснение
Автор: RoboSathi
Загружено: 2026-02-07
Просмотров: 12
Описание:
🎥 Следующее видео: Метрики регрессии: • Linear Regression Metrics | MAE | MSE | RM...
👉 В этом видео мы наглядно объясним регуляризацию L1, L2 и Elastic Net с помощью графиков, компромисс между смещением и почему L1 обнуляет веса, а L2 — нет.
🎯 Цели обучения
✅ Понять, что такое регуляризация и почему она необходима
✅ Четко объяснить переобучение и его первопричины
✅ Понять, как регуляризация вносит смещение
✅ Сравнить регуляризацию L1, L2 и Elastic Net
✅ Визуально интерпретировать области ограничений L1 и L2
👉 Плейлист «Математика для машинного обучения»:
• Maths for AI & ML
🕔 Временные метки 🕘
00:00:00 - 00:02:50 Что такое переобучение?
00:02:51 - 00:03:42 Как избежать переобучения?
00:03:43 - 00:07:04 Регуляризация
00:07:05 - 00:07:54 Регуляризация вносит смещение
00:07:55 - 00:09:05 Распространенные методы регуляризации
00:09:06 - 00:12:28 L2-регуляризация
00:12:29 - 00:16:45 L1-регуляризация
00:16:46 - 00:18:06 Регуляризация Elastic Net
00:18:07 - 00:19:08 Графическое представление L2, L1 и Elastic Regularization
00:19:09 - 00:22:07 Почему веса уменьшаются до 0 в L1, но не в L2
00:22:08 - 00:22:46 Что дальше? 🤔
#ml #ai #regularization #L1regularization #L2regularization
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: