Алгоритм максимизации ожидания | Модель гауссовой смеси | Объяснение на примере
Автор: RoboSathi
Загружено: 2026-02-07
Просмотров: 9
Описание:
🎥 Следующее видео: Обнаружение аномалий: • Anomaly/Outlier/Novelty Detection Methods ...
👉 В этом видео мы строим алгоритм максимизации ожидания (EM) на основе моделей гауссовой смеси, используя классическую задачу «курица-яйцо».
🎯 Цели обучения
✅ Понять, почему EM необходим для моделей смесей Гаусса
✅ Объяснить проблему «курицы и яйца» в моделях скрытых переменных
✅ Интерпретировать жесткое и мягкое распределение кластеров
✅ Интуитивно понимать индикаторные переменные и их обязанности
✅ Вычислять обязанности, используя плотности GMM
✅ Объяснить шаг максимизации и обновление параметров
✅ Визуализировать сходимость EM на протяжении итераций
👉 Плейлист «Математика для машинного обучения»:
• Maths for AI & ML
🕔 Временные метки 🕘
00:00:00 - 00:00:24 Введение
00:00:25 - 00:02:15 GMM как модель скрытых переменных Пересмотр
00:02:16 - 00:03:30 Проблема курицы🐓 и яйца🥚
00:03:01 - 00:05:10 Кластеры гауссовых распределений
00:05:11 - 00:07:05 Плотности GMM при x=2,5
00:07:06 - 00:08:30 Разрыв цикла
00:08:31 - 00:12:20 От жесткого к мягкому назначению
00:12:21 - 00:16:44 Индикаторная переменная → Ответственность
00:16:45 - 00:25:44 Пример плотностей GMM и ответственности
00:25:45 - 00:28:25 Алгоритм максимизации ожидания
00:28:26 - 00:30:40 Шаг ожидания
00:30:41 - 00:33:40 Шаг максимизации
00:33:41 - 00:37:20 Эффективное количество точек в кластере
00:37:21 - 00:38:30 Процесс сходимости
00:38:31 - 00:39:06 Что дальше? 🤔
#ai #ml #gmm #latentvariable #expectations #log #likelihood
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: