У нас вы можете посмотреть бесплатно Session 1: LLM Scaling and the Role of Synthetic Data или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
By Tatsunori Hashimoto, Stanford University: Scaling up language models has been a key driver of the recent, dramatic improvements in their capabilities. Despite the significant empirical successes of scaling up pre-training in the past 5 years, the future of this approach has become uncertain: large base models no longer show the same types of jumps in benchmark performance, and new forms of scaling (’test-time scaling’) have been proposed to take its place. Does the data inefficiency of pretraining pose fundamental challenges to scaling? Will scaling up inference compute suffice for future capability gains? This talk will cover a few initial investigations into these questions, in the hopes of better understanding whether and how LLM scaling will continue.