У нас вы можете посмотреть бесплатно NLP | Deep dive en los mecanismos de atención y red neuronal transformers | La base de GPT-3 y BERT или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
#deeplearning #nlp #attention #transformers #gpt-3 #gpt3 En este video exploramos en detalle los mecanismos de atención expuestos en revolucionario paper "Attention is all you need" de Google Brain, base de la red Transformers, de la cual se han generado modelos SoTA como BERT o GPT-3. En concreto veremos: La problematica asociada a las RNNs para el NLP ¿Como funciona el mecanismo de atención? Q,K y V ¿Cuál es la arquitectura encoder-decoder del modelo transformer? Modelo colab Tensorflow: https://www.tensorflow.org/tutorials/... Paper original "Attention is all you need": https://arxiv.org/pdf/1706.03762.pdf Sígueme en: 👉twitter: @luisvelasco 👉medium: / velascoluis 👉github: https://github.com/velascoluis