• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

"Not Me" Podcast Episode #10: The End of Context Windows скачать в хорошем качестве

"Not Me" Podcast Episode #10: The End of Context Windows 5 дней назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: "Not Me" Podcast Episode #10: The End of Context Windows в качестве 4k

У нас вы можете посмотреть бесплатно "Not Me" Podcast Episode #10: The End of Context Windows или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон "Not Me" Podcast Episode #10: The End of Context Windows в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



"Not Me" Podcast Episode #10: The End of Context Windows

Hey, it’s Vlad. Everyone’s obsessed with building bigger AI brains. More parameters. Longer context windows. Better reasoning. But here’s what MIT just figured out: you don’t need a bigger brain. You need a smarter one. Researchers Alex Zhang, Tim Kraska, and Omar Khattab from MIT CSAIL dropped a paper that’s getting way less attention than it deserves. It’s called Recursive Language Models, or RLMs. And it flips everything we know about AI limitations on its head. The Problem Nobody Solved Let’s start with the ugly truth. Every AI model you use has a memory problem. GPT-5? It chokes after 272,000 tokens. Claude? Same ballpark. Even with these “massive” context windows, the models get dumber the more you feed them. It’s called context rot. Think about it. You paste a 50-page document and ask a simple question. The model starts hallucinating. Missing obvious facts. Getting confused. Why? Because cramming everything into the context window is like forcing someone to read a 10,000-page encyclopedia cover-to-cover before answering your question. It’s absurd. We’ve been treating AI like a student with a strict word limit on their exam. No wonder it struggles. The MIT Breakthrough Here’s where it gets interesting. MIT asked a different question: What if the AI didn’t have to read everything at once? What if it could treat the prompt as an external environment? A workspace. A filing cabinet can be explored strategically. That’s RLM. Instead of feeding GPT-5 your entire 10-million-token corpus directly, you store it as a Python variable. The model never sees it in the prompt. Instead, it writes code to peek at specific sections. Grep through for patterns. Chunk it up. And here’s the kicker: it can spawn sub-models to investigate specific parts. It’s recursion. The model calls itself. Over and over. Each layer handles a smaller, more manageable piece. Like hiring a research team instead of forcing one person to do everything. Sound familiar? It’s the same philosophy behind sub-agents I wrote about recently. Stop making one AI do everything. Orchestrate. The Numbers Don’t Lie Let’s talk results. On the OOLONG benchmark, which is designed to torture AI with long context tasks, here’s what happened: Base GPT-5? Crashed and burned. Near zero performance. GPT-5 with RLM? 58% F1 score. From essentially nothing to majority correct. That’s not an improvement. That’s a resurrection. On the BrowseComp-Plus benchmark, RLM handled over 10 million tokens. Two orders of magnitude beyond the context window. And it did it for roughly the same cost as running the base model. Sometimes cheaper. 91.33% accuracy on a task where the base model literally couldn’t fit the input. This isn’t incremental progress. This is a paradigm shift. Why Programmatic Decomposition Beats Everything You might ask: Why not just summarize the context? Compress it? They tried that. It’s called context compaction. Here’s the problem. Every time you summarize, you lose information. It’s entropy. Irreversible. Summarization agents on the same benchmarks? 70% at best. Often worse. RLM doesn’t summarize. It delegates. Big difference. The model actively decides what to look at. Uses regex filters. Keyword searches. Strategic sampling. It behaves less like a student cramming for an exam and more like a senior researcher with a team of assistants. And because each sub-call runs with a fresh context window, there’s no pollution. No context rot. Each recursive agent stays sharp. What Most People Overlook Here’s the thing that’s flying under the radar. This approach is model-agnostic. RLM works with GPT-5. With Qwen. With Claude. Open-source, closed-source, doesn’t matter. It’s an inference strategy, not an architecture change. You don’t need to retrain anything. And the cost structure is fascinating. Using GPT-5-mini for recursive calls while GPT-5 handles the final synthesis? Cheaper than running GPT-5 on truncated input. Better results. Lower price. That’s the arbitrage nobody’s talking about. The Bitter Lesson, Again Alex Zhang called this a “bitter-lesson-pilled approach.” If you don’t know Rich Sutton’s Bitter Lesson, it’s simple: general methods that leverage computation beat specialized hand-engineered solutions. Every time. RLM fits perfectly. Instead of designing clever compression schemes or specialized architectures, you give the model tools and let it figure out the strategy. The model learns to peek first. Scan for relevant sections. Delegate the hard parts. Build up answers iteratively. No human had to specify these behaviors. They emerge naturally when you give the model the right environment. That’s the meta-lesson here. Stop constraining AI. Start enabling it. Practical Implications So what does this mean for you? If you’re building with AI, pay attention. Long-horizon agents, the ones that need to process weeks or ...

Comments
  • Дарио Амодеи — «Мы близки к концу экспоненты» 4 дня назад
    Дарио Амодеи — «Мы близки к концу экспоненты»
    Опубликовано: 4 дня назад
  • 9 месяцев назад
    "Not Me" Podcast Episode #1: Effective Prompt Engineering: Techniques and Best Practices
    Опубликовано: 9 месяцев назад
  • Технический анализ: как агенты ИИ игнорируют 40 лет прогресса в области безопасности. 2 недели назад
    Технический анализ: как агенты ИИ игнорируют 40 лет прогресса в области безопасности.
    Опубликовано: 2 недели назад
  • OpenClaw: чит-код для продуктивности или подарок хакерам? 1 день назад
    OpenClaw: чит-код для продуктивности или подарок хакерам?
    Опубликовано: 1 день назад
  • Обзор Claude Opus 4.6: Является ли это лучшим ИИ для написания книг в 2026 году? 1 день назад
    Обзор Claude Opus 4.6: Является ли это лучшим ИИ для написания книг в 2026 году?
    Опубликовано: 1 день назад
  • Зачем нужна топология? 2 недели назад
    Зачем нужна топология?
    Опубликовано: 2 недели назад
  • 12 дней назад
    "Not Me" Podcast Episode #9: Boring Bet
    Опубликовано: 12 дней назад
  • Я ВЗЛОМАЛ САЙТ Максима Галкина 1 день назад
    Я ВЗЛОМАЛ САЙТ Максима Галкина
    Опубликовано: 1 день назад
  • LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры 1 год назад
    LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры
    Опубликовано: 1 год назад
  • Пэм Бонди сделала БЕЗУМНОЕ заявление по делу Эпштейна. 1 день назад
    Пэм Бонди сделала БЕЗУМНОЕ заявление по делу Эпштейна.
    Опубликовано: 1 день назад
  • Зачать от двух пап, родить от ИИ и никогда не состариться. Илья Колмановский о сенсациях года 1 месяц назад
    Зачать от двух пап, родить от ИИ и никогда не состариться. Илья Колмановский о сенсациях года
    Опубликовано: 1 месяц назад
  • Психология Людей, Которые Родились в период 1965-1980 гг 6 черт 4 дня назад
    Психология Людей, Которые Родились в период 1965-1980 гг 6 черт
    Опубликовано: 4 дня назад
  • AI-агенты становятся системной силой: масштабы, риски, потеря контроля | AI 2026 2 дня назад
    AI-агенты становятся системной силой: масштабы, риски, потеря контроля | AI 2026
    Опубликовано: 2 дня назад
  • Доведение моделирования до предела возможностей для поиска порядка в хаосе. 1 месяц назад
    Доведение моделирования до предела возможностей для поиска порядка в хаосе.
    Опубликовано: 1 месяц назад
  • Вся IT-база в ОДНОМ видео: Память, Процессор, Код 2 месяца назад
    Вся IT-база в ОДНОМ видео: Память, Процессор, Код
    Опубликовано: 2 месяца назад
  • Как Гений Математик разгадал тайну вселенной 4 месяца назад
    Как Гений Математик разгадал тайну вселенной
    Опубликовано: 4 месяца назад
  • Странный предел, после которого свет начинает вышибать частицы из космической пустоты 2 дня назад
    Странный предел, после которого свет начинает вышибать частицы из космической пустоты
    Опубликовано: 2 дня назад
  • 6 способов направить человека на путь ложный | Разбор 1 день назад
    6 способов направить человека на путь ложный | Разбор "Писем Баламута" К.С. Льюиса
    Опубликовано: 1 день назад
  • Проблема нержавеющей стали 7 дней назад
    Проблема нержавеющей стали
    Опубликовано: 7 дней назад
  • Архитектура JEPA Яна Лекуна. Модели на основе энергии (Energy-Based Models) 1 день назад
    Архитектура JEPA Яна Лекуна. Модели на основе энергии (Energy-Based Models)
    Опубликовано: 1 день назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5