• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Crosslingual Generalization through Multitask Finetuning (BLOOMZ & mT0) скачать в хорошем качестве

Crosslingual Generalization through Multitask Finetuning (BLOOMZ & mT0) 3 года назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Crosslingual Generalization through Multitask Finetuning (BLOOMZ & mT0)
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Crosslingual Generalization through Multitask Finetuning (BLOOMZ & mT0) в качестве 4k

У нас вы можете посмотреть бесплатно Crosslingual Generalization through Multitask Finetuning (BLOOMZ & mT0) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Crosslingual Generalization through Multitask Finetuning (BLOOMZ & mT0) в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Crosslingual Generalization through Multitask Finetuning (BLOOMZ & mT0)

A description of the work "Crosslingual Generalization through Multitask Finetuning" by N. Muennighoff et al. which appeared on arxiv in November 2022. This work was produced as part of the BigScience Workshop. Timestamps: 00:00 - Crosslingual Generalization through Multitask Finetuning (BLOOMZ & mT0) 01:56 - Finetuning data 03:55 - Dataset variants 05:11 - Finetuned models 06:46 - Evaluation details 07:35 - Results: Zero-shot multilingual task generalization 09:31 - Results: Language generalization 10:11 - Results: Language generalization (on "never intentionally seen" languages) 11:36 - Results: Multilingual prompting 12:44 - Results: Scaling multitask finetuning 13:31 - Influence of multitask finetuning on generative tasks 15:40 - Code generation 17:06 - Influence of language proportions 18:12 - Qualitative results 21:18 - Related Work 23:25 - Takeaways and released assets 24:24 - Nuts and bolts of finetuning Detailed description: This video describes studies "Crosslingual Generalization through Multitask Finetuning", a work that studies multilingual multitask finetuning for zero-shot task generalization on non-English tasks. We start by describing the motivation for the work: previous studies have shown that finetuning large language models (LLMs) brings benefits, but has mostly focused on English models and tasks. While multilingual LLMs demonstrate promise, their zero-shot performance still trails their performance with task and language-specific finetuning. Collecting such finetuning is difficult for low-resource languages and tasks. We summarise the key findings of this work: (1) English multitask finetuning helps non-English tasks, (2) multilingual finetuning data further helps, (3) larger models benefit more from multitask finetuning, (4) finetuning helps tasks on rarely seen languages. We outline the finetuning data used in this work, xP3, which expands the P3 dataset used in prior work by adding 28 multilingual datasets. A second variant dubbed xP3mt is also employed for finetuning. This uses machine translation to generate non-English prompts from those found in xP3. We then describe the families of models finetuned in the study: BLOOM and mT5, and how finetuning on xP3 is used to produce BLOOMZ and mT0. Next, we describe evaluation details - the three held-out task clusters (coreference resolution, sentence completion and natural language inference) and the additional assessment conducted on program synthesis (on HumanEval). We then turn to results, first describing how mT0-13B outperforms BLOOMZ for zero-shot multilingual task generalization, then describing how xP3 finetuning yields better results than P3 finetuning (which in turn yields a boost even on non-English tasks). We describe how performance improves on languages "never intentionally seen" during pretraining, and how training on machine-translated prompts can boost performance on non-English prompts (though not always). The video describes a scaling study that suggests that multitask finetuning benefits larger models more, and flags how multitask finetuning can harm generative task performance. This is illustrated both qualitatively and quantitatively with code generation. The influence of pretraining language proportions is also discussed. Qualitative results are provided, together with a brief summary of related work. The video wraps up with a list of takeaways and released assets and some low-level nuts and bolts details about fine-tuning. Answer to the question "Why is the sky blue?" https://xkcd.com/1818/ Full author list: Niklas Muennighoff, Thomas Wang, Lintang Sutawika, Adam Roberts, Stella Biderman, Teven Le Scao, M Saiful Bari, Sheng Shen, Zheng-Xin Yong, Hailey Schoelkopf, Xiangru Tang, Dragomir Radev, Alham Fikri Aji, Khalid Almubarak, Samuel Albanie, Zaid Alyafeai, Albert Webson, Edward Raff, Colin Raffel Note: as a co-author of this work, my description of this work may be favourably biased in its assessment. Topics: #BLOOMZ #mT0 #bigscience #foundationmodels #languagemodels Slides (pdf): https://samuelalbanie.com/files/diges... References for papers mentioned in the video can be found at http://samuelalbanie.com/digests/2022... Arxiv paper: https://arxiv.org/abs/2211.01786 Code and models: https://github.com/bigscience-worksho... BigScience Workshop: https://bigscience.huggingface.co/ Lastly, I'd like to express my thanks to the mystery donor of the Spanish voiceover. (Optional) If you'd like to support future videos: https://www.buymeacoffee.com/samuelal...

Comments
  • Scaling Instruction-Finetuned Language Models (Flan-PaLM) 3 года назад
    Scaling Instruction-Finetuned Language Models (Flan-PaLM)
    Опубликовано: 3 года назад
  • Битва за Telegram. Гуриев: что заставит Путина закончить войну. Кто прогнал Богомолова из МХАТ
    Битва за Telegram. Гуриев: что заставит Путина закончить войну. Кто прогнал Богомолова из МХАТ
    Опубликовано:
  • «Мамба» — замена «Трансформерам»? 2 года назад
    «Мамба» — замена «Трансформерам»?
    Опубликовано: 2 года назад
  • On the Opportunities and Risks of Foundation Models (intro) 3 года назад
    On the Opportunities and Risks of Foundation Models (intro)
    Опубликовано: 3 года назад
  • Prover-Verifier Games improve legibility of LLM outputs 1 год назад
    Prover-Verifier Games improve legibility of LLM outputs
    Опубликовано: 1 год назад
  • #GenAI #Production Plan use cases, ensure data quality, engineer prompts, evaluate model output 4 дня назад
    #GenAI #Production Plan use cases, ensure data quality, engineer prompts, evaluate model output
    Опубликовано: 4 дня назад
  • Gemini 1.5 Pro имеет огромное контекстное окно 1 год назад
    Gemini 1.5 Pro имеет огромное контекстное окно
    Опубликовано: 1 год назад
  • Vision Transformer Basics 2 года назад
    Vision Transformer Basics
    Опубликовано: 2 года назад
  • Foundation Models
    Foundation Models
    Опубликовано:
  • AI safety research
    AI safety research
    Опубликовано:
  • Self-supervised vision 2 года назад
    Self-supervised vision
    Опубликовано: 2 года назад
  • ИИ сожрёт планету: дата-центры vs энергия, крах уже в 2026? 3 часа назад
    ИИ сожрёт планету: дата-центры vs энергия, крах уже в 2026?
    Опубликовано: 3 часа назад
  • Alignment Faking in Large Language Models 1 год назад
    Alignment Faking in Large Language Models
    Опубликовано: 1 год назад
  • Something big is happening... 22 часа назад
    Something big is happening...
    Опубликовано: 22 часа назад
  • Doda - Pamiętnik (Official Video) 1 день назад
    Doda - Pamiętnik (Official Video)
    Опубликовано: 1 день назад
  • Deliberative Alignment: Reasoning Enables Safer Language Models 1 год назад
    Deliberative Alignment: Reasoning Enables Safer Language Models
    Опубликовано: 1 год назад
  • AI Fails at 96% of Jobs (New Study) 2 часа назад
    AI Fails at 96% of Jobs (New Study)
    Опубликовано: 2 часа назад
  • How does Gemini compare to GPT-4? 2 года назад
    How does Gemini compare to GPT-4?
    Опубликовано: 2 года назад
  • ☝️ХАРЕБИН: МЕДИНСКОГО ВЕРНУЛИ НЕСПРОСТА! Путин послал СИГНАЛ ТРАМПУ. Киев испытывают НА ПРОЧНОСТЬ
    ☝️ХАРЕБИН: МЕДИНСКОГО ВЕРНУЛИ НЕСПРОСТА! Путин послал СИГНАЛ ТРАМПУ. Киев испытывают НА ПРОЧНОСТЬ
    Опубликовано:
  • ATLÉTI SHOW! CZTERY DO PRZERWY, ZAGUBIONA BARCA PYTA KTÓRĘDY DO SZATNI! TO PARTIDO MIAŁO WSZYSTKO 19 часов назад
    ATLÉTI SHOW! CZTERY DO PRZERWY, ZAGUBIONA BARCA PYTA KTÓRĘDY DO SZATNI! TO PARTIDO MIAŁO WSZYSTKO
    Опубликовано: 19 часов назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5