• ClipSaver
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Transformer, explained in detail | Igor Kotenkov | NLP Lecture (in Russian) скачать в хорошем качестве

Transformer, explained in detail | Igor Kotenkov | NLP Lecture (in Russian) 2 года назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Transformer, explained in detail | Igor Kotenkov | NLP Lecture (in Russian)
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Transformer, explained in detail | Igor Kotenkov | NLP Lecture (in Russian) в качестве 4k

У нас вы можете посмотреть бесплатно Transformer, explained in detail | Igor Kotenkov | NLP Lecture (in Russian) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Transformer, explained in detail | Igor Kotenkov | NLP Lecture (in Russian) в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Transformer, explained in detail | Igor Kotenkov | NLP Lecture (in Russian)

Ссылка на презентацию: https://1drv.ms/p/s!AlnN0aqNwShslRdcd... Мой телеграм канал: https://t.me/seeallochnaya Список всех моих образовательных материалов, статей, лекций итд: https://t.me/seeallochnaya/3 В этой вводной лекции о трансформерах мы рассмотрим базовые понятия, алгоритмы и методы, используемые в современных языковых моделях. Мы начнем с базовых знаний о NLP, поговорим про концепцию векторов и эмбеддингов, их смысле. Затем подробно обсудим ткокенизацию и то, почему она столь важна. Мы разберем архитектуру трансформера, включая FeedForward, SelfAttention, CrossAttetntion, а еще постараемся понять роль позиционного кодирования в моедели и разных регуляризаторов и оптимизаций. Мы также подробно рассмотрим декодер и маскированный Attention и процедуру обучения таких моделей. Лекция была прочитана онлайн для сообщества Singularis, и по ходу было сделано 5 пауз для Q&A секиций - вполне возможно, что вопрос, появившийся у вас, будет отвечен в лекции! Подпишитесь на наш канал, чтобы не пропустить новые видео о машинном обучении и искусственном интеллекте. Не забудьте поставить лайк и поделиться этим видео с друзьями, если оно вам понравилось. Если у вас возникнут вопросы или предложения, оставляйте их в комментариях! Timeline: 0:00 - 4:10 - Intro 4:10 - 11:41 - NLP 101 (intro for ML Engineers), W2V, Embeddings 11:41 - 15:55 - Tokenization Intuition 15:55 - 23:08 - Tokenization Details and how to build a Vocabulary 23:08 - 28:55 - Why Tokenization matters 28:55 - 36:10 - 1st Q&A 36:10 - 39:58 - Transformer: a 10'000 foot view 39:58 - 45:06 - FeedForward layer 45:06 - 49:19 - 2nd Q&A 49:19 - 1:08:01 - Self-Attention Mechanism in Detail 1:08:01 - 1:14:05 - 3rd Q&A 1:14:05 - 1:20:59 - Multi Head Self-Attention & its Matrix form 1:20:59 - 1:26:55 - Positional Encodings 1:26:55 - 1:32:11 - Transformer Optimizations & Regularizers: LayerNorm, Skip-Connection 1:32:11 - 1:36:31 - 4th Q&A 1:36:31 - 1:43:50 - Decoder & Cross-Attention 1:43:50 - 1:50:30 - Masked Self-Attention & Training Procedure 1:50:30 - 1:53:48 - 5th Q&A 1:53:48 - 2:04:50 - BERT Training: MLM, NSP 2:05:50 - 2:14:19 - Outro: why are Transformers THAT good? 2:14:19 - 2:17:09 - 6th and final Q&A ---- #Трансформеры #Машинноеобучение #Искусственныйинтеллект #NLP #DeepLearning #AI #NeuralNetworks #BERT #AttentionMechanism #NaturalLanguageProcessing #Tokenization #MachineLearningAlgorithms #DataScience #LanguageModels #ML #GPT #OpenAI #MLengineers #WordEmbeddings #PositionalEncoding #LayerNormalization #SkipConnection #CrossAttention #MLM #NSP #chatgpt #attention #attentionisallyouneed

Comments

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5