Funciones de Activación y Optimizadores: Guía Definitiva (ReLU, Adam, SGD)
Автор: Alvaro Norberto García Meza
Загружено: 2025-12-15
Просмотров: 61
Описание:
¿Te has preguntado por qué usamos ReLU en lugar de Sigmoid? ¿O cuándo es mejor usar Adam vs. SGD?
En este video desglosamos los motores que hacen que las redes neuronales aprendan de verdad. Analizaremos las Funciones de Activación (que deciden qué información pasa) y los Optimizadores (que deciden cómo mejorar el modelo).
Además, explicaremos dos de los problemas más grandes al entrenar modelos: Vanishing Gradients y Exploding Gradients.
Lo que aprenderás en este video:
Diferencias entre Sigmoid, Tanh y ReLU.
Para qué sirve la función Softmax en clasificación.
Optimizadores: SGD (Estocástico) vs. Adam.
Cómo evitar el desvanecimiento del gradiente.
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: