У нас вы можете посмотреть бесплатно Week 12 – Practicum: Attention and the Transformer или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Course website: http://bit.ly/DLSP20-web Playlist: http://bit.ly/pDL-YouTube Speaker: Alfredo Canziani Week 12: http://bit.ly/DLSP20-12 0:00:00 – Week 12 – Practicum PRACTICUM: http://bit.ly/DLSP20-12-3 We introduce attention, focusing on self-attention and its hidden layer representations of the inputs. Then, we introduce the key-value store paradigm and discuss how to represent queries, keys, and values as rotations of an input. Finally, we use attention to interpret the transformer architecture, taking a forward pass through a basic transformer, and comparing the encoder-decoder paradigm to sequential architectures. 0:01:09 – Attention 0:17:36 – Key-value store 0:35:14 – Transformer and PyTorch implementation 0:54:00 – Q&A