У нас вы можете посмотреть бесплатно Optimization for Deep Learning (Momentum, RMSprop, AdaGrad, Adam) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Here we cover six optimization schemes for deep neural networks: stochastic gradient descent (SGD), SGD with momentum, SGD with Nesterov momentum, RMSprop, AdaGrad and Adam. Chapters --------------- Introduction 00:00 Brief refresher 00:27 Stochastic gradient descent (SGD) 03:16 SGD with momentum 05:01 SGD with Nesterov momentum 07:02 AdaGrad 09:46 RMSprop 12:20 Adam 13:23 SGD vs Adam 15:03