У нас вы можете посмотреть бесплатно Codando um Corretor Neural: Arquitetura Seq2Seq com Atenção no PyTorch или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Depois de processar 60 milhões de frases no primeiro vídeo, agora é hora de dar vida ao nosso projeto: vamos codar e treinar o cérebro do nosso Corretor Ortográfico Neural. 🧠✅ Neste segundo episódio, saímos da teoria e vamos para o PyTorch construir a arquitetura que vai transformar textos "quebrados" em português correto. O desafio de um corretor não é apenas consertar letras erradas, é entender o contexto. Por isso, mostro por que uma LSTM simples falhou em corrigir frases longas e como a implementação do Mecanismo de Atenção (Bahdanau Attention) foi a chave para o modelo parar de "chutar" e começar a corrigir concordância de verdade. O que você vai ver no código de hoje: 🛠️ A Arquitetura do Corretor: Criando o Encoder-Decoder Seq2Seq do zero. ✨ Contexto é Tudo: Implementando a Atenção para corrigir erros distantes na frase. 📈 Treino Profissional: Como configurei o Training Loop com TensorBoard, Gradient Clipping e Shedulers para garantir que o corretor aprenda de verdade (e não exploda os gradientes). Este é o passo decisivo onde transformamos dados em inteligência. No próximo e último vídeo, vamos colocar isso em produção com técnicas avançadas de inferência! 👇 Links do Projeto: 🔗 Código do Modelo (GitHub): https://github.com/luischary/deeplear... 🔗 Episódio 1 (Preparação dos Dados): • Destruir para Construir: Como criei o Data... Timestamps: 00:00:00 - intro 00:01:09 - Lembrando do seq2seq 00:01:32 - Implementando encoder-decoder 00:05:08 - A classe Corretor 00:12:30 - Validando o código do modelo 00:14:57 - Loop de treinamento 00:20:30 - Script de inferência 00:25:41 - Primeiras inferências 00:28:55 - Apelando pra ver se funciona 00:31:51 - Atenção 00:40:07 - Implementando a atenção 00:49:11 - O novo corretor 00:53:47 - Problemas no treinamento 00:55:27 - Adicionando normalização no modelo 00:57:19 - Novo loop de treinamento 00:59:01 - Learning Rate Scheduler 01:09:00 - Melhorias no log 01:17:19 - Melhorias na validação #DeepLearning #CorretorOrtografico #NLP #Pytorch #Python #MachineLearning #RNN