У нас вы можете посмотреть бесплатно ¡Red Neuronal Desde Cero estilo FRAMEWORK de DEEP LEARNING! или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Código: https://github.com/JACantoral/DL_fund... Código para procesar MNIST: https://github.com/JACantoral/DL_fund... Ligas a videos previos: Cómo procesar MNIST • Descargar y procesar MNIST, sólo Python ! ... Red Neuronal desde Cero parte 1 • Red Neuronal Desde Cero. ¡Sólo Python! Red Neuronal desde Cero parte 2 • Red Neuronal Desde Cero. ¡Sólo Python! - P... Inicialización Kaiming He • ¿Cómo Inicializar los Parámetros de una Re... Gradiente de la función de costo • Gradiente de la Función de Pérdida “Cross ... Backpropagation • “Backpropagation” – Fundamentos de Deep Le... Ejemplo completo • Backpropagation - Gradient Descent, Ejempl... ¡En este video me divertí mucho! Vamos a programar clases que nos permitirán implementar una red neuronal multi capa desde cero usando sólo Python y Numpy, sin usar Frameworks de Deep Learning como Tensorflow o PyTorch. Este esquema nos permite crear una instancia de un modelo con un número arbitrario de capas lineales con función de activación ReLU, y Softmax con Cross Entropy como función de costo. Además programamos una clase Sequential que nos permitirá recibir una lista con las capas que van a formar nuestro modelo, de una forma que nos resultará muy parecida a la manera en la que funcionan los módulos de PyTorch. Dado que el video se extendió más de lo usual, lo divido en dos partes. En esta primera parte presento la clase Linear, ReLU, y Sequential_layers. En el siguiente video presentaré la función de Costo, Accuracy, así como el Loop de Entrenamiento. Con esto tendremos el conocimiento necesario para hacer el cambio a PyTorch con bases sólidas que nos permitirán usar sus módulos entendiendo sus principios de operación. Acerca de la serie Fundamentos de Deep Learning con Python y PyTorch: En esta serie de videos explico qué son las Redes Neuronales (Neural Networks) y qué es Aprendizaje Computacional (Machine Learning) así como Deep Learning. Empezamos con los principios matemáticos fundamentales hasta su implementación en código. Para esto, primero utilizaremos Python y Numpy para entender los principios de programación de Redes Neuronales incluyendo el algoritmo de retropropagación (backpropagation). Con estas bases, presentaremos el framework PyTorch y construiremos modelos más complejos como son Redes Neuronales Convolucionales (Convolutional Neural Networks - CNNs). About the video series: In this video series I will explain what Neural Networks are, and how Deep Neural Networks work, from the mathematical principles to their implementation in code. Firstly, we will use pure Python and Numpy to understand the fundamentals including backpropagation for a simple Fully Connected Network, and from there we will build on to Convolutional Neural Networks (CNN) using PyTorch. I will be uploading at least one new video every week until we reach different architectures of CNNs. Then, depending on the response and interest in the series I may cover newer models using Generative Adversarial Networks (GANs), and Recurrent Neural Networks.