Algoritmos de Optimización: Mejoras al Descenso por Gradiente | Clase 7 | Aprendizaje Profundo 2021
Автор: Datitos
Загружено: 2021-04-12
Просмотров: 1578
Описание:
En la clase de hoy vamos a enumerar las diferentes mejoras al Descenso por Gradiente que se implementan en los algoritmos de optimización más usados en la actualidad como Momentum y Adam.
Esta clase es parte de un curso gratuito dictado en la Ciudad de Mendoza, Argentina en Otoño de 2021. Podés encontrar todo el material en https://datitos.github.io/curso-apren...
0:00 Repaso del Descenso por Gradiente
9:34 Convexidad
13:02 Funciones Convexas
30:50 Cálculo del Hessiano
32:05 Planificación de Tasas de Aprendizaje
37:27 Momentum
41:25 Limitaciones de Momentum
44:32 Adagrad
47:22 Limitaciones de Adagrad
48:15 RMSProp
50:05 Adadelta
52:05 Adam
55:00 Comparación gráfica de los algoritmos
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: