У нас вы можете посмотреть бесплатно Как проводилось обучение ChatGPT? или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Как OpenAI обучил ChatGPT перейти от предугадывания слов к поддержанию диалога? В этом видео я простыми словами расскажу о трёх ключевых этапах обучения ChatGPT: 1. Предварительное обучение: буква «P» в GPT. Используя большой объём интернет-текста, модель учится предугадывать следующее слово. Мощный, но неточный. 2. Тонкая настройка под руководством (SFT): примеры вопросов и ответов, написанные человеком, помогают модели следовать инструкциям и звучать более понятно. 3. Обучение с подкреплением на основе обратной связи с человеком (RLHF): оценщики ранжируют ответы, модели вознаграждения обучаются, а ИИ учится быть более полезным, честным и безвредным (3H). Попутно вы узнаете, почему предварительное обучение так дорого стоит, почему тонкая настройка может вызывать «галлюцинации» и как RLHF делает ChatGPT более безопасным и соответствующим предпочтениям человека. К концу вы поймете, как ChatGPT прошел путь от простой языковой модели до искусственного интеллекта, которым мы пользуемся сегодня.