• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Information Theory for Language Models: Jack Morris скачать в хорошем качестве

Information Theory for Language Models: Jack Morris 7 месяцев назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Information Theory for Language Models: Jack Morris
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Information Theory for Language Models: Jack Morris в качестве 4k

У нас вы можете посмотреть бесплатно Information Theory for Language Models: Jack Morris или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Information Theory for Language Models: Jack Morris в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Information Theory for Language Models: Jack Morris

Our last AI PhD grad student feature was Shunyu Yao, who happened to focus on Language Agents for his thesis and immediately went to work on them for OpenAI. Our pick this year is Jack Morris, who bucks the “hot” trends by not working on agents, benchmarks, or VS Code forks, but is rather known for his work on the information theoretic understanding of LLMs, starting from embedding models and latent space representations (always close to our heart). Jack is an unusual combination of doing underrated research but somehow still being to explain them well to a mass audience, so we felt this was a good opportunity to do a different kind of episode going through the greatest hits of a high profile AI PhD, and relate them to questions from AI Engineering. Papers and References made AI grad school: https://x.com/jxmnop/status/193388451... A new type of information theory: https://x.com/jxmnop/status/190423840... EmbeddingsText Embeddings Reveal (Almost) As Much As Text: https://arxiv.org/abs/2310.06816 Contextual document embeddings https://arxiv.org/abs/2410.02525 Harnessing the Universal Geometry of Embeddings: https://arxiv.org/abs/2505.12540 Language models GPT-style language models memorize 3.6 bits per param: https://x.com/jxmnop/status/192990302... Approximating Language Model Training Data from Weights: https://arxiv.org/abs/2506.15553 https://x.com/jxmnop/status/193604466... LLM Inversion"There Are No New Ideas In AI.... Only New Datasets" https://x.com/jxmnop/status/191008709... https://blog.jxmo.io/p/there-are-no-n... misc reference: https://junyanz.github.io/CycleGAN/ — for others hiring AI PhDs, Jack also wanted to shout out his coauthor Zach Nussbaum, his coauthor on Nomic Embed: Training a Reproducible Long Context Text Embedder. Timestamps: 00:00 Introduction to Jack Morris 01:18 Career in AI 03:29 The Shift to AI Companies 03:57 The Impact of ChatGPT 04:26 The Role of Academia in AI 05:49 The Emergence of Reasoning Models 07:07 Challenges in Academia: GPUs and HPC Training 11:04 The Value of GPU Knowledge 14:24 Introduction to Jack's Research 15:28 Information Theory 17:10 Understanding Deep Learning Systems 19:00 The "Bit" in Deep Learning 20:25 Wikipedia and Information Storage 23:50 Text Embeddings and Information Compression 27:08 The Research Journey of Embedding Inversion 31:22 Harnessing the Universal Geometry of Embeddings 34:54 Implications of Embedding Inversion 36:02 Limitations of Embedding Inversion 38:08 The Capacity of Language Models 40:23 The Cognitive Core and Model Efficiency 50:40 The Future of AI and Model Scaling 52:47 Approximating Language Model Training Data from Weights 01:06:50 The "No New Ideas, Only New Datasets" Thesis

Comments
  • Is RL + LLMs enough for AGI? — Sholto Douglas & Trenton Bricken 9 месяцев назад
    Is RL + LLMs enough for AGI? — Sholto Douglas & Trenton Bricken
    Опубликовано: 9 месяцев назад
  • The AI Frontier: from Gemini 3 Deep Think distilling to Flash — Jeff Dean 13 дней назад
    The AI Frontier: from Gemini 3 Deep Think distilling to Flash — Jeff Dean
    Опубликовано: 13 дней назад
  • The Left is Missing Out on AI: A Weary Response 4 дня назад
    The Left is Missing Out on AI: A Weary Response
    Опубликовано: 4 дня назад
  • But how do AI images and videos actually work? | Guest video by Welch Labs 7 месяцев назад
    But how do AI images and videos actually work? | Guest video by Welch Labs
    Опубликовано: 7 месяцев назад
  • Claude Code for Finance + The Global Memory Shortage: Doug O'Laughlin, SemiAnalysis 1 день назад
    Claude Code for Finance + The Global Memory Shortage: Doug O'Laughlin, SemiAnalysis
    Опубликовано: 1 день назад
  • Symbolic World Models - Top Piriyakulkij 1 месяц назад
    Symbolic World Models - Top Piriyakulkij
    Опубликовано: 1 месяц назад
  • Jack Morris: Stuffing Context is not Memory, Updating Weights is 1 месяц назад
    Jack Morris: Stuffing Context is not Memory, Updating Weights is
    Опубликовано: 1 месяц назад
  • Ilya Sutskever – We're moving from the age of scaling to the age of research 3 месяца назад
    Ilya Sutskever – We're moving from the age of scaling to the age of research
    Опубликовано: 3 месяца назад
  • Interpretability: Understanding how AI models think 6 месяцев назад
    Interpretability: Understanding how AI models think
    Опубликовано: 6 месяцев назад
  • The Shape of Compute (Chris Lattner of Modular) 8 месяцев назад
    The Shape of Compute (Chris Lattner of Modular)
    Опубликовано: 8 месяцев назад
  • Как внимание стало настолько эффективным [GQA/MLA/DSA] 2 месяца назад
    Как внимание стало настолько эффективным [GQA/MLA/DSA]
    Опубликовано: 2 месяца назад
  • Better Data is All You Need — Ari Morcos, Datology 5 месяцев назад
    Better Data is All You Need — Ari Morcos, Datology
    Опубликовано: 5 месяцев назад
  • Greg Brockman on OpenAI's Road to AGI 6 месяцев назад
    Greg Brockman on OpenAI's Road to AGI
    Опубликовано: 6 месяцев назад
  • The Strange Math That Predicts (Almost) Anything 7 месяцев назад
    The Strange Math That Predicts (Almost) Anything
    Опубликовано: 7 месяцев назад
  • The most complex model we actually understand 2 месяца назад
    The most complex model we actually understand
    Опубликовано: 2 месяца назад
  • The Utility of Interpretability — Emmanuel Amiesen 8 месяцев назад
    The Utility of Interpretability — Emmanuel Amiesen
    Опубликовано: 8 месяцев назад
  • Why I Left Quantum Computing Research 7 месяцев назад
    Why I Left Quantum Computing Research
    Опубликовано: 7 месяцев назад
  • Silicon Valley Insider EXPOSES Cult-Like AI Companies | Aaron Bastani Meets Karen Hao 7 месяцев назад
    Silicon Valley Insider EXPOSES Cult-Like AI Companies | Aaron Bastani Meets Karen Hao
    Опубликовано: 7 месяцев назад
  • Richard Sutton – Father of RL thinks LLMs are a dead end 5 месяцев назад
    Richard Sutton – Father of RL thinks LLMs are a dead end
    Опубликовано: 5 месяцев назад
  • Краткое объяснение больших языковых моделей 1 год назад
    Краткое объяснение больших языковых моделей
    Опубликовано: 1 год назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5