У нас вы можете посмотреть бесплатно POLAR: Scalable Reward Models for LLMs или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
In this AI Research Roundup episode, Alex discusses the paper: 'Pre-Trained Policy Discriminators are General Reward Models' This paper addresses the scalability and generalization limits of traditional reward models. The authors introduce POLAR (Policy Discriminative Learning), a novel method that reframes reward modeling as discriminating between different LLM policies. Instead of relying on scarce human preference data, POLAR is pre-trained on a massive synthetic dataset to learn the relative differences between various model outputs. After pre-training, the model is fine-tuned with a small amount of human data, resulting in more general and scalable reward models for guiding LLMs. Paper URL: https://huggingface.co/papers/2507.05197 #AI #MachineLearning #DeepLearning #LLM #RewardModel #ReinforcementLearning #AIAlignment