У нас вы можете посмотреть бесплатно Why AI Suddenly Got So Good (LLM Scaling Laws) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Large Language Models did not become powerful because we discovered new intelligence. They became powerful because we learned how to scale them. In this video, we explain what an LLM really is from first principles. We break down how GPT models work as probabilistic neural networks, why Transformers form their core, and how scaling data, compute, and parameters led to the dramatic jump from early GPT models to today’s systems. We also unpack tokenization, pre-training, autoregressive generation, and why conversational behavior is learned rather than inherent. This video is part of the Deep Learning Talks series. Watch the full Deep Learning playlist to go deeper into large language models, training, and inference.