У нас вы можете посмотреть бесплатно Choosing the Learning Rate with LR Finder или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Setting the learning rate for stochastic gradient descent (SGD) is crucially important when training neural network because it controls both the speed of convergence and the ultimate performance of the network. Set the learning too low and you could be twiddling your thumbs for quite some time as the parameters update very slowly. Set it too high and the updates will skip over optimal solutions, or worse the optimizer might not converge at all! Leslie Smith from the U.S. Naval Research Laboratory presented a method for finding a good learning rate in a paper called "Cyclical Learning Rates for Training Neural Networks" (https://arxiv.org/abs/1506.01186). In this video we implement a 'Learning Rate Finder' in MXNet with the Gluon API that you can use while training your own networks. Code and more information can be found at https://mxnet.incubator.apache.org/tu... Intro Music: Candy-Coloured Sky by Catmosphere