У нас вы можете посмотреть бесплатно Cómo aprenden realmente las neuronas: el secreto del gradiente natural или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
El cerebro es una máquina de aprendizaje increíblemente compleja, y su capacidad para adaptarse se basa en un principio conocido como plasticidad sináptica: la idea de que las conexiones entre neuronas, las sinapsis, se fortalecen o debilitan con el tiempo. Sin embargo, las teorías clásicas sobre cómo ocurre este ajuste a menudo se topan con un problema: sus predicciones cambian dependiendo de la parametrización de los pesos sinápticos, como por ejemplo la ubicación física de la sinapsis en la neurona. Esto genera inconsistencias y sugiere que falta una pieza fundamental en el rompecabezas del aprendizaje neuronal. Este estudio propone una solución elegante a este problema utilizando conceptos de la geometría riemanniana. Los investigadores sugieren que la plasticidad sináptica no sigue un descenso de gradiente euclidiano tradicional, sino un 'descenso de gradiente natural'. Este enfoque, inherentemente invariante a la parametrización, deriva una nueva regla de aprendizaje para las neuronas de picos (spiking neurons) que es más consistente y biológicamente plausible. Esta regla no solo optimiza la eficiencia funcional, sino que también explica de forma unificada fenómenos biológicos bien documentados como la 'democracia dendrítica', donde sinapsis lejanas pueden influir en la neurona tanto como las cercanas. Las implicaciones de este nuevo modelo son profundas. La regla de aprendizaje basada en el gradiente natural permite una convergencia más rápida durante el aprendizaje supervisado y unifica diferentes formas de plasticidad (homosináptica y heterosináptica) en un único marco teórico. Al proponer que la evolución pudo haber desarrollado su propia versión del descenso de gradiente natural, este trabajo ofrece una nueva perspectiva sobre los principios computacionales que subyacen a la plasticidad y el aprendizaje en el cerebro, abriendo nuevas vías para la investigación en neurociencia y el desarrollo de algoritmos de inteligencia artificial más eficientes. Link al paper: https://arxiv.org/pdf/2011.11710 Autores del estudio: Elena Kreutzer, Walter M. Senn, Mihai A. Petrovici Apoyanos en / audioarxiv Unete en / discord #Ciencia de la computación #Neurociencia #InteligenciaArtificial #AprendizajeProfundo #PlasticidadSinaptica #Cerebro