• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

ExT5: Towards Extreme Multi-Task Scaling for Transfer Learning (Paper Explained) скачать в хорошем качестве

ExT5: Towards Extreme Multi-Task Scaling for Transfer Learning (Paper Explained) 4 года назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
ExT5: Towards Extreme Multi-Task Scaling for Transfer Learning (Paper Explained)
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: ExT5: Towards Extreme Multi-Task Scaling for Transfer Learning (Paper Explained) в качестве 4k

У нас вы можете посмотреть бесплатно ExT5: Towards Extreme Multi-Task Scaling for Transfer Learning (Paper Explained) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон ExT5: Towards Extreme Multi-Task Scaling for Transfer Learning (Paper Explained) в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



ExT5: Towards Extreme Multi-Task Scaling for Transfer Learning (Paper Explained)

#ext5 #transferlearning #exmix The T5 model has been a staple for NLP research for the last years. Both its size and its approach to formulate all NLP tasks as prompt-based language modeling make it a convenient choice to tackle new challenges and provides a strong baseline for most current datasets. ExT5 pushes T5 to its limits by pre-training not only on self-supervised mask filling, but also at the same time on 107 different supervised NLP tasks, which is their new ExMix dataset. The resulting model compares very favorably to T5 when fine-tuned to downstream tasks. OUTLINE: 0:00 - Intro & Overview 2:15 - Recap: The T5 model 3:55 - The ExT5 model and task formulations 8:10 - ExMix dataset 9:35 - Do different tasks help each other? 16:50 - Which tasks should we include? 20:30 - Pre-Training vs Pre-Finetuning 23:00 - A few hypotheses about what's going on 27:20 - How much self-supervised data to use? 34:15 - More experimental results 38:40 - Conclusion & Summary Paper: https://arxiv.org/abs/2111.10952 Abstract: Despite the recent success of multi-task learning and transfer learning for natural language processing (NLP), few works have systematically studied the effect of scaling up the number of tasks during pre-training. Towards this goal, this paper introduces ExMix (Extreme Mixture): a massive collection of 107 supervised NLP tasks across diverse domains and task-families. Using ExMix, we study the effect of multi-task pre-training at the largest scale to date, and analyze co-training transfer amongst common families of tasks. Through this analysis, we show that manually curating an ideal set of tasks for multi-task pre-training is not straightforward, and that multi-task scaling can vastly improve models on its own. Finally, we propose ExT5: a model pre-trained using a multi-task objective of self-supervised span denoising and supervised ExMix. Via extensive experiments, we show that ExT5 outperforms strong T5 baselines on SuperGLUE, GEM, Rainbow, Closed-Book QA tasks, and several tasks outside of ExMix. ExT5 also significantly improves sample efficiency while pre-training. Authors: Vamsi Aribandi, Yi Tay, Tal Schuster, Jinfeng Rao, Huaixiu Steven Zheng, Sanket Vaibhav Mehta, Honglei Zhuang, Vinh Q. Tran, Dara Bahri, Jianmo Ni, Jai Gupta, Kai Hui, Sebastian Ruder, Donald Metzler Links: TabNine Code Completion (Referral): http://bit.ly/tabnine-yannick YouTube:    / yannickilcher   Twitter:   / ykilcher   Discord:   / discord   BitChute: https://www.bitchute.com/channel/yann... LinkedIn:   / ykilcher   BiliBili: https://space.bilibili.com/2017636191 If you want to support me, the best thing to do is to share out the content :) If you want to support me financially (completely optional and voluntary, but a lot of people have asked for this): SubscribeStar: https://www.subscribestar.com/yannick... Patreon:   / yannickilcher   Bitcoin (BTC): bc1q49lsw3q325tr58ygf8sudx2dqfguclvngvy2cq Ethereum (ETH): 0x7ad3513E3B8f66799f507Aa7874b1B0eBC7F85e2 Litecoin (LTC): LQW2TRyKYetVC8WjFkhpPhtpbDM4Vw7r9m Monero (XMR): 4ACL8AGrEo5hAir8A9CeVrW8pEauWvnp1WnSDZxW7tziCDLhZAGsgzhRQABDnFy8yuM9fWJDviJPHKRjV4FWt19CJZN9D4n

Comments
  • LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры 1 год назад
    LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры
    Опубликовано: 1 год назад
  • Can Wikipedia Help Offline Reinforcement Learning? (Paper Explained) 3 года назад
    Can Wikipedia Help Offline Reinforcement Learning? (Paper Explained)
    Опубликовано: 3 года назад
  • DINO: Emerging Properties in Self-Supervised Vision Transformers (Facebook AI Research Explained) 4 года назад
    DINO: Emerging Properties in Self-Supervised Vision Transformers (Facebook AI Research Explained)
    Опубликовано: 4 года назад
  • T5: Exploring Limits of Transfer Learning with Text-to-Text Transformer (Research Paper Walkthrough) 5 лет назад
    T5: Exploring Limits of Transfer Learning with Text-to-Text Transformer (Research Paper Walkthrough)
    Опубликовано: 5 лет назад
  • Decision Transformer: Reinforcement Learning via Sequence Modeling (Research Paper Explained) 4 года назад
    Decision Transformer: Reinforcement Learning via Sequence Modeling (Research Paper Explained)
    Опубликовано: 4 года назад
  • OpenAI CLIP: Соединение текста и изображений (объяснение в статье) 5 лет назад
    OpenAI CLIP: Соединение текста и изображений (объяснение в статье)
    Опубликовано: 5 лет назад
  • Colin Raffel: Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer 6 лет назад
    Colin Raffel: Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer
    Опубликовано: 6 лет назад
  • Transformer Memory as a Differentiable Search Index (Machine Learning Research Paper Explained) 3 года назад
    Transformer Memory as a Differentiable Search Index (Machine Learning Research Paper Explained)
    Опубликовано: 3 года назад
  • Fine-tuning Large Language Models (LLMs) | w/ Example Code 2 года назад
    Fine-tuning Large Language Models (LLMs) | w/ Example Code
    Опубликовано: 2 года назад
  • MLFlow Tutorial | ML Ops Tutorial 1 год назад
    MLFlow Tutorial | ML Ops Tutorial
    Опубликовано: 1 год назад
  • Но что такое нейронная сеть? | Глава 1. Глубокое обучение 8 лет назад
    Но что такое нейронная сеть? | Глава 1. Глубокое обучение
    Опубликовано: 8 лет назад
  • Sparse is Enough in Scaling Transformers (aka Terraformer) | ML Research Paper Explained 4 года назад
    Sparse is Enough in Scaling Transformers (aka Terraformer) | ML Research Paper Explained
    Опубликовано: 4 года назад
  • NÜWA: Visual Synthesis Pre-training for Neural visUal World creAtion (ML Research Paper Explained) 4 года назад
    NÜWA: Visual Synthesis Pre-training for Neural visUal World creAtion (ML Research Paper Explained)
    Опубликовано: 4 года назад
  • Лекция от легенды ИИ в Стэнфорде 2 недели назад
    Лекция от легенды ИИ в Стэнфорде
    Опубликовано: 2 недели назад
  • S13 E02: Epstein Files & Twitter: 2/22/26: Last Week Tonight with John Oliver 7 часов назад
    S13 E02: Epstein Files & Twitter: 2/22/26: Last Week Tonight with John Oliver
    Опубликовано: 7 часов назад
  • JEPA - A Path Towards Autonomous Machine Intelligence (Paper Explained) 3 года назад
    JEPA - A Path Towards Autonomous Machine Intelligence (Paper Explained)
    Опубликовано: 3 года назад
  • Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение 8 лет назад
    Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение
    Опубликовано: 8 лет назад
  • Понимание GD&T 3 года назад
    Понимание GD&T
    Опубликовано: 3 года назад
  • Лучший документальный фильм про создание ИИ 1 месяц назад
    Лучший документальный фильм про создание ИИ
    Опубликовано: 1 месяц назад
  • Introduction to Generative AI 2 года назад
    Introduction to Generative AI
    Опубликовано: 2 года назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5