• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Tomek Korbak - RLHF as conditioning on human preferences | ML in PL 2024 скачать в хорошем качестве

Tomek Korbak - RLHF as conditioning on human preferences | ML in PL 2024 9 месяцев назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Tomek Korbak - RLHF as conditioning on human preferences | ML in PL 2024
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Tomek Korbak - RLHF as conditioning on human preferences | ML in PL 2024 в качестве 4k

У нас вы можете посмотреть бесплатно Tomek Korbak - RLHF as conditioning on human preferences | ML in PL 2024 или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Tomek Korbak - RLHF as conditioning on human preferences | ML in PL 2024 в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Tomek Korbak - RLHF as conditioning on human preferences | ML in PL 2024

The dominant approach to aligning large language models with human preferences is reinforcement learning from human feedback (RLHF): finetuning an LLM to maximise a reward function representing human preferences. In this talk, I will try to present a complementary perspective: that we can also think about LLM alignment not in terms of reward maximisation but in terms of conditioning LMs on evidence about human preferences. First, I will explain how minimizing the classic RLHF objective is equivalent to approximate Bayesian inference. Then, I will go on to argue that the conditioning view also inspires other approaches to LLM alignment. I will discuss three: minimising different f-divergences from a target distribution, learning from feedback expressed in natural language and aligning LMs already during pretraining by directly learning a distribution conditional on alignment score. I will end the talk discussing how they correspond to conditioning subsequent priors on subsequent pieces of evidence about human preferences. Tomek Korbak is a Senior Research Scientist at the UK AI Safety Institute working on safety cases for frontier models. Previously, he was a Member of Technical Staff at Anthropic working on honesty. Before that, he did a PhD at the University of Sussex focusing on RL from human feedback (RLHF) and spent time as a visiting researcher at NYU working with Ethan Perez, Sam Bowman and Kyunghyun Cho. He studied cognitive science, philosophy and physics at the University of Warsaw. This talk was one of the Invited Talks at the ML in PL Conference 2024. ML in PL Conference 2024 website: https://conference2024.mlinpl.org ML in PL Association Website: https://mlinpl.org

Comments
  • Wojciech Samek - Explainable AI for LLMs | ML in PL 2024 9 месяцев назад
    Wojciech Samek - Explainable AI for LLMs | ML in PL 2024
    Опубликовано: 9 месяцев назад
  • Stanford CS224N | 2023 | Lecture 10 - Prompting, Reinforcement Learning from Human Feedback 2 года назад
    Stanford CS224N | 2023 | Lecture 10 - Prompting, Reinforcement Learning from Human Feedback
    Опубликовано: 2 года назад
  • Bistability and Chaos in a Two-Gene Model 13 дней назад
    Bistability and Chaos in a Two-Gene Model
    Опубликовано: 13 дней назад
  • Lucas Beyer - Computer Vision in the Age of LLMs | ML in PL 2024 11 месяцев назад
    Lucas Beyer - Computer Vision in the Age of LLMs | ML in PL 2024
    Опубликовано: 11 месяцев назад
  • Reinforcement Learning, RLHF, & DPO Explained 1 год назад
    Reinforcement Learning, RLHF, & DPO Explained
    Опубликовано: 1 год назад
  • LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили! 7 дней назад
    LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили!
    Опубликовано: 7 дней назад
  • CS 285: Eric Mitchell: Reinforcement Learning from Human Feedback: Algorithms & Applications 2 года назад
    CS 285: Eric Mitchell: Reinforcement Learning from Human Feedback: Algorithms & Applications
    Опубликовано: 2 года назад
  • Цепи Маркова — математика предсказаний [Veritasium] 2 месяца назад
    Цепи Маркова — математика предсказаний [Veritasium]
    Опубликовано: 2 месяца назад
  • Tom Rainforth - Modern Bayesian Experimental Design | ML in PL 2024 9 месяцев назад
    Tom Rainforth - Modern Bayesian Experimental Design | ML in PL 2024
    Опубликовано: 9 месяцев назад
  • Evaluating LLM-based Applications 2 года назад
    Evaluating LLM-based Applications
    Опубликовано: 2 года назад
  • ICML 2024 Tutorial: Physics of Language Models 1 год назад
    ICML 2024 Tutorial: Physics of Language Models
    Опубликовано: 1 год назад
  • Stanford CS234 Reinforcement Learning I Introduction to Reinforcement Learning I 2024 I Lecture 1 1 год назад
    Stanford CS234 Reinforcement Learning I Introduction to Reinforcement Learning I 2024 I Lecture 1
    Опубликовано: 1 год назад
  • Reinforcement Learning from Human Feedback: From Zero to chatGPT Трансляция закончилась 3 года назад
    Reinforcement Learning from Human Feedback: From Zero to chatGPT
    Опубликовано: Трансляция закончилась 3 года назад
  • Daniel Śliwiński & Patryk Radoń - Leveraging Feature Store for Recommendations | ML in PL 2024 8 месяцев назад
    Daniel Śliwiński & Patryk Radoń - Leveraging Feature Store for Recommendations | ML in PL 2024
    Опубликовано: 8 месяцев назад
  • Оптимизация проксимальной политики (PPO) — как обучать большие языковые модели 1 год назад
    Оптимизация проксимальной политики (PPO) — как обучать большие языковые модели
    Опубликовано: 1 год назад
  • Krzysztof Kotowski - Good Practices for Applied Computer Science | ML in PL 2024 8 месяцев назад
    Krzysztof Kotowski - Good Practices for Applied Computer Science | ML in PL 2024
    Опубликовано: 8 месяцев назад
  • Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев 1 месяц назад
    Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев
    Опубликовано: 1 месяц назад
  • Получение степени магистра права: создание, обучение, доработка 1 год назад
    Получение степени магистра права: создание, обучение, доработка
    Опубликовано: 1 год назад
  • Обучение с подкреплением и обратной связью с человеком (RLHF) — как обучать и настраивать модели ... 1 год назад
    Обучение с подкреплением и обратной связью с человеком (RLHF) — как обучать и настраивать модели ...
    Опубликовано: 1 год назад
  • Deep Dive into LLMs like ChatGPT 10 месяцев назад
    Deep Dive into LLMs like ChatGPT
    Опубликовано: 10 месяцев назад

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5