У нас вы можете посмотреть бесплатно Por que quase ninguém entende Transformers (Guia definitivo de Attention) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Transformers parecem complicados… mas quase toda explicação de Attention começa do jeito errado: pela fórmula. Neste vídeo eu inverto o caminho: primeiro a intuição (atenção como busca), depois a lógica (Query/Key/Value) e só no final a matemática — incluindo Multi-Head Attention e os 3 tipos de atenção no Transformer. Se você quer entender Attention sem decorar equação, esse é o guia. ✅ Próximo vídeo (do conceito ao código): vou implementar Attention do zero em Python/PyTorch. Se inscreve pra não perder. ⏱️ Capítulos 00:00 Introdução — dá pra explicar Attention sem fórmula? 00:31 O problema original (Seq2Seq e o gargalo do vetor de contexto) 02:35 A solução proposta (olhar para trás + foco) 03:47 Os 3 papéis: Query, Key e Value (atenção como busca) 07:51 A intuição matemática (produto interno → softmax → pesos) 11:31 Visualizando as matrizes (notação “hardcore”) 13:42 Uma cabeça só é muito pouco 15:34 Multi-Head Attention (notação “hardcore”) 18:22 Os tipos de atenção: Self / Masked Self / Cross 25:08 Conclusão — por que isso virou base da IA generativa 🎯 Se esse vídeo “clicou” pra você… Comenta “Agora faz sentido” (e me conta onde você travava antes: fórmula, QKV, softmax, matrizes, multi-head…). 📌 Termos que você vai dominar aqui Attention, Transformer, Self-Attention, Cross-Attention, Masked Self-Attention, Query Key Value (QKV), Softmax, Matriz de atenção, Multi-Head Attention. #DeepLearning #Transformers #Attention #NLP #PyTorch