У нас вы можете посмотреть бесплатно Monte Carlo incrémental | Intro RL II - 3 или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Bonjour et bienvenue dans le cours Intro RL, un cours d'introduction à l'apprentissage par renforcement en français. Ce cours sera donc publié sur cette chaîne au cours de de l'année 2020, et sera composé de vidéos théoriques d'une part, et pratiques d'autre part, où on prendra le temps d'implémenter les algorithmes vus dans la partie théorique. Dans cette vidéo, on va s'attarder sur la manière dont on va calculer une moyenne dans nos algorithmes de RL model-free. Dans la dernière vidéo, on a en effet vu que l'algorithme de Monte Carlo Prédiction, pour approximer la value function d'une policy en un state, effectuait la moyenne des returns obtenus à partir de ce state. La méthode la plus simple est évidemment celle que l'on connaît tous : ajouter tous les termes et diviser parle nombre de termes. Mais ce calcul n'est pas très efficace, dans le sens où on recommence à zéro à chaque fois que l'on veut calculer la moyenne. On va ainsi voir dans cette vidéo un moyen de calculer une moyenne de façon incrémentale, c'est-à-dire calculer la nouvelle moyenne à partir l'ancienne. 📗 RESSOURCES 📗 Le github du cours, avec un cours écrit et le codes des vidéos pratiques : -https://github.com/Procuste34/IntroRL... Feuille de notation : -https://github.com/Procuste34/IntroRL... Bible du reinforcement learning, à partir duquel est construit ce cours : "Reinforcement Learning: An Introduction", de Richard S. Sutton et Andrew G. Barto. 👨💻 ME TROUVER AILLEURS 👨💻 Github : https://github.com/Procuste34 Twitter : / alexandretl2 pour des actus et articles de reinforcement learning