• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Promptbreeder: Self-Referential Self-Improvement Via Prompt Evolution (Paper Explained) скачать в хорошем качестве

Promptbreeder: Self-Referential Self-Improvement Via Prompt Evolution (Paper Explained) 2 года назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Promptbreeder: Self-Referential Self-Improvement Via Prompt Evolution (Paper Explained)
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Promptbreeder: Self-Referential Self-Improvement Via Prompt Evolution (Paper Explained) в качестве 4k

У нас вы можете посмотреть бесплатно Promptbreeder: Self-Referential Self-Improvement Via Prompt Evolution (Paper Explained) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Promptbreeder: Self-Referential Self-Improvement Via Prompt Evolution (Paper Explained) в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Promptbreeder: Self-Referential Self-Improvement Via Prompt Evolution (Paper Explained)

#ai #promptengineering #evolution Promptbreeder is a self-improving self-referential system for automated prompt engineering. Give it a task description and a dataset, and it will automatically come up with appropriate prompts for the task. This is achieved by an evolutionary algorithm where not only the prompts, but also the mutation-prompts are improved over time in a population-based, diversity-focused approach. OUTLINE: 0:00 - Introduction 2:10 - From manual to automated prompt engineering 10:40 - How does Promptbreeder work? 21:30 - Mutation operators 36:00 - Experimental Results 38:05 - A walk through the appendix Paper: https://arxiv.org/abs/2309.16797 Abstract: Popular prompt strategies like Chain-of-Thought Prompting can dramatically improve the reasoning abilities of Large Language Models (LLMs) in various domains. However, such hand-crafted prompt-strategies are often sub-optimal. In this paper, we present Promptbreeder, a general-purpose self-referential self-improvement mechanism that evolves and adapts prompts for a given domain. Driven by an LLM, Promptbreeder mutates a population of task-prompts, and subsequently evaluates them for fitness on a training set. Crucially, the mutation of these task-prompts is governed by mutation-prompts that the LLM generates and improves throughout evolution in a self-referential way. That is, Promptbreeder is not just improving task-prompts, but it is also improving the mutationprompts that improve these task-prompts. Promptbreeder outperforms state-of-the-art prompt strategies such as Chain-of-Thought and Plan-and-Solve Prompting on commonly used arithmetic and commonsense reasoning benchmarks. Furthermore, Promptbreeder is able to evolve intricate task-prompts for the challenging problem of hate speech classification. Authors: Chrisantha Fernando, Dylan Banarse, Henryk Michalewski, Simon Osindero, Tim Rocktäschel Links: Homepage: https://ykilcher.com Merch: https://ykilcher.com/merch YouTube:    / yannickilcher   Twitter:   / ykilcher   Discord: https://ykilcher.com/discord LinkedIn:   / ykilcher   If you want to support me, the best thing to do is to share out the content :) If you want to support me financially (completely optional and voluntary, but a lot of people have asked for this): SubscribeStar: https://www.subscribestar.com/yannick... Patreon:   / yannickilcher   Bitcoin (BTC): bc1q49lsw3q325tr58ygf8sudx2dqfguclvngvy2cq Ethereum (ETH): 0x7ad3513E3B8f66799f507Aa7874b1B0eBC7F85e2 Litecoin (LTC): LQW2TRyKYetVC8WjFkhpPhtpbDM4Vw7r9m Monero (XMR): 4ACL8AGrEo5hAir8A9CeVrW8pEauWvnp1WnSDZxW7tziCDLhZAGsgzhRQABDnFy8yuM9fWJDviJPHKRjV4FWt19CJZN9D4n

Comments
  • Titans: Learning to Memorize at Test Time (Paper Analysis) 1 месяц назад
    Titans: Learning to Memorize at Test Time (Paper Analysis)
    Опубликовано: 1 месяц назад
  • Efficient Streaming Language Models with Attention Sinks (Paper Explained) 2 года назад
    Efficient Streaming Language Models with Attention Sinks (Paper Explained)
    Опубликовано: 2 года назад
  • [GRPO Explained] DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models 1 год назад
    [GRPO Explained] DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models
    Опубликовано: 1 год назад
  • Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention 1 год назад
    Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention
    Опубликовано: 1 год назад
  • Reinforced Self-Training (ReST) for Language Modeling (Paper Explained) 2 года назад
    Reinforced Self-Training (ReST) for Language Modeling (Paper Explained)
    Опубликовано: 2 года назад
  • Принципы разработки подсказок ChatGPT: цепочка подсказок 2 года назад
    Принципы разработки подсказок ChatGPT: цепочка подсказок
    Опубликовано: 2 года назад
  • [Анализ статьи] О теоретических ограничениях поиска на основе встраивания (Предупреждение: критика) 4 месяца назад
    [Анализ статьи] О теоретических ограничениях поиска на основе встраивания (Предупреждение: критика)
    Опубликовано: 4 месяца назад
  • Retentive Network: A Successor to Transformer for Large Language Models (Paper Explained) 2 года назад
    Retentive Network: A Successor to Transformer for Large Language Models (Paper Explained)
    Опубликовано: 2 года назад
  • Genetic Algorithms in Python - Evolution For Optimization 1 год назад
    Genetic Algorithms in Python - Evolution For Optimization
    Опубликовано: 1 год назад
  • Mixtral of Experts (Paper Explained) 2 года назад
    Mixtral of Experts (Paper Explained)
    Опубликовано: 2 года назад
  • Self-Referential Meta Learning ICML & AutoML 2022 3 года назад
    Self-Referential Meta Learning ICML & AutoML 2022
    Опубликовано: 3 года назад
  • Scaling LLM Test-Time Compute Optimally can be More Effective than Scaling Model Parameters (Paper) 1 год назад
    Scaling LLM Test-Time Compute Optimally can be More Effective than Scaling Model Parameters (Paper)
    Опубликовано: 1 год назад
  • Tree of Thoughts: Deliberate Problem Solving with Large Language Models (Full Paper Review) 2 года назад
    Tree of Thoughts: Deliberate Problem Solving with Large Language Models (Full Paper Review)
    Опубликовано: 2 года назад
  • “What's wrong with LLMs and what we should be building instead” - Tom Dietterich - #VSCF2023 2 года назад
    “What's wrong with LLMs and what we should be building instead” - Tom Dietterich - #VSCF2023
    Опубликовано: 2 года назад
  • Safety Alignment Should be Made More Than Just a Few Tokens Deep (Paper Explained) 1 год назад
    Safety Alignment Should be Made More Than Just a Few Tokens Deep (Paper Explained)
    Опубликовано: 1 год назад
  • Scalable Extraction of Training Data from (Production) Language Models (Paper Explained) 2 года назад
    Scalable Extraction of Training Data from (Production) Language Models (Paper Explained)
    Опубликовано: 2 года назад
  • VL-JEPA: Joint Embedding Predictive Architecture for Vision-language 1 месяц назад
    VL-JEPA: Joint Embedding Predictive Architecture for Vision-language
    Опубликовано: 1 месяц назад
  • Paper deep dive: Evolutionary Optimization of Model Merging Recipes 1 год назад
    Paper deep dive: Evolutionary Optimization of Model Merging Recipes
    Опубликовано: 1 год назад
  • Energy-Based Transformers are Scalable Learners and Thinkers (Paper Review) 6 месяцев назад
    Energy-Based Transformers are Scalable Learners and Thinkers (Paper Review)
    Опубликовано: 6 месяцев назад
  • Парадокс лжеца — объяснение парадокса 400 г. до н. э. 2 года назад
    Парадокс лжеца — объяснение парадокса 400 г. до н. э.
    Опубликовано: 2 года назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5