У нас вы можете посмотреть бесплатно Funciones de Activación y Optimizadores: Guía Definitiva (ReLU, Adam, SGD) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
¿Te has preguntado por qué usamos ReLU en lugar de Sigmoid? ¿O cuándo es mejor usar Adam vs. SGD? En este video desglosamos los motores que hacen que las redes neuronales aprendan de verdad. Analizaremos las Funciones de Activación (que deciden qué información pasa) y los Optimizadores (que deciden cómo mejorar el modelo). Además, explicaremos dos de los problemas más grandes al entrenar modelos: Vanishing Gradients y Exploding Gradients. Lo que aprenderás en este video: Diferencias entre Sigmoid, Tanh y ReLU. Para qué sirve la función Softmax en clasificación. Optimizadores: SGD (Estocástico) vs. Adam. Cómo evitar el desvanecimiento del gradiente.