У нас вы можете посмотреть бесплатно ECUACIONES DE BELLMAN PT.1 | EXPLICACIÓN FÁCIL Y EJEMPLO RESUELTO | REINFORCEMENT LEARNING y MDPs или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
En el vídeo de hoy estudiamos las ecuaciones de Bellman, que constituyen la base del reinforcement learning y los procesos de decisión de Markov (MDPs). En primer lugar haremos un muy breve repaso de la nomenclatura utilizada en los MDPs, para pasar a explicar el desarrollo y funcionamiento de las ecuaciones de Bellman para el cálculo del valor esperado. Finalmente, resolveremos un sencillo caso práctico en la pizarra para ilustrar estos conceptos. En una segunda parte, estudiaremos las ecuaciones de Bellman de optimalidad. Las ecuaciones de Bellman forman parte de la teoría de control. En concreto, constituten el componente fundamental del algoritmo conocido como programación dinámica, y nos permiten, entre otras cosas, calcular el valor esperado al aplicar una determinada política en un proceso de decisión de Markov. Para profundizar en este ámbito, os recomiendo leer: "Reinforcement Learning: An Introduction", de Sutton y Barto, en especial el capítulo 3 del libro. Si quieres contactarme puedes hacerlo a través de mi email o LinkedIn: [email protected] www.linkedin.com/in/yago-mateos-vela _________________________________________________________________________ reinforcement learning, aprendizaje por refuerzo, machine learning, markov, markov decision process, matematicas, informatica, AI, inteligencia artificial