У нас вы можете посмотреть бесплатно Implementing ReLU and Its Derivative from Scratch или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
In this video, we discuss and implement ReLU activation function and its derivative using PyTorch. Codebase: https://github.com/oniani/ai GitHub: https://github.com/oniani Web: https://oniani.org #ai #softwareengineering #programming #stylepoint #relu Chapters 0:00 - Intro 0:33 - Discussing ReLU 6:40 - Computing the derivative of Sigmoid 8:21 - The API of the first approach 8:45 - Implementing `forward` method 9:14 - Implementing `backward` method 9:55 - Using `gradcheck` for testing 10:21 - The alternative implementation 13:05 - Outro