У нас вы можете посмотреть бесплатно 04 PyTorch tutorial - How do computational graphs and autograd in PyTorch work или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
In this tutorial, we have talked about how the autograd system in PyTorch works and about its benefits. We also did a rewind of how the forward and backward pass work, and also how to calculate gradients. If you found this video helpful, please drop a like and subscribe. If you have any questions, write them in the comment section below. 💻 Blog: http://datahacker.rs/004-computationa... 🎞 Youtube: / @datahackerrs 🎞 Link for google collab script: https://colab.research.google.com/git... . . . Timestamps 00:00 Introduction 00:52 Computational graph forward pass 01:54 Python forward pass 02:25 Gradient calculation 02:49 Python backward pass 03:29 Turn off gradient calculation 04:58 Gradient accumulation 07:01 Chain rule 08:17 Derivative calculation visualized 10:15 .backward() function . . . . #machinelearning #artificialintelligence #ai #datascience #python #deeplearning #technology #programming #coding #bigdata #computerscience #data #dataanalytics #tech #datascientist #iot #pythonprogramming #programmer #ml #developer #software #robotics #java #innovation #coder #javascript #datavisualization #analytics #neuralnetworks #bhfyp