У нас вы можете посмотреть бесплатно Differentiable Programming (Part 1) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Derivatives are at the heart of scientific programming. From the Jacobian matrices used to solve nonlinear systems to the gradient vectors used for optimisation methods, from the backpropagation operation in machine learning to the data assimilation methods used in weather forecasting, all of these techniques rely on derivative information. Differentiable programming (also known as automatic/algorithmic differentiation (AD)) provides a suite of tools for users to compute derivatives of quantities in their code without any manual encoding. In Session 1, we will learn about the history and mathematical background of differentiable programming and investigate “forward mode” using the Tapenade AD tool. In Session 2, we will learn about adjoint methods and “reverse mode”, investigate deploying reverse mode in PyTorch, Torch, or FTorch (i.e., Python, C++, or Fortran, as preferred), and see some demonstrations of more advanced usage.