У нас вы можете посмотреть бесплатно Оптимизация для глубокого обучения (Momentum, RMSprop, AdaGrad, Adam) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Здесь мы рассмотрим шесть схем оптимизации для глубоких нейронных сетей: стохастический градиентный спуск (SGD), SGD с импульсом, SGD с импульсом Нестерова, RMSprop, AdaGrad и Adam. Главы -------------- Введение 00:00 Краткое напоминание 00:27 Стохастический градиентный спуск (SGD) 03:16 SGD с импульсом 05:01 SGD с импульсом Нестерова 07:02 AdaGrad 09:46 RMSprop 12:20 Adam 13:23 SGD против Adam 15:03