• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

IterDRAG: Inference Scaling for Long-Context Retrieval Augmented Generation скачать в хорошем качестве

IterDRAG: Inference Scaling for Long-Context Retrieval Augmented Generation 12 дней назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
IterDRAG: Inference Scaling for Long-Context Retrieval Augmented Generation
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: IterDRAG: Inference Scaling for Long-Context Retrieval Augmented Generation в качестве 4k

У нас вы можете посмотреть бесплатно IterDRAG: Inference Scaling for Long-Context Retrieval Augmented Generation или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон IterDRAG: Inference Scaling for Long-Context Retrieval Augmented Generation в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



IterDRAG: Inference Scaling for Long-Context Retrieval Augmented Generation

Paper: https://arxiv.org/pdf/2410.04343v1 Notes: Problem - scale test-time compute for RAG beyond "more docs"; measure via *effective context length* = total input tokens across all LLM calls. Core idea - two inference-scaling strategies: DRAG (demonstration-based RAG) and IterDRAG (iterative DRAG with interleaved retrieval + generation). DRAG mechanism - prepend retrieved documents + complete in-context examples (each example = k docs + q + a); reverse doc order so higher-rank docs sit nearer the query. IterDRAG loop - generate either sub-query, intermediate answer, or final answer; on sub-query: retrieve additional docs, merge with existing context, generate intermediate answer; repeat up to n iterations (default ≤5), then force final answer. Creating demonstrations - use constrained decoding / Self-Ask to produce (sub-query, intermediate answer) chains; keep only examples with correct final answer for in-context examples. Budgeting decision space θ = (k docs, m shots, n iterations); for a max budget Lmax choose θ that maximizes average metric under l(x;θ) ≤ Lmax. Empirically grid-search to find optima. Empirical law - optimal performance P*(Lmax) grows nearly linearly with log-scale increases in effective context length up to ≈1M tokens; IterDRAG outperforms at very large budgets (≥128k–1M+). Failure modes observed - retrieval noise / distraction from too many similar docs; model inability to pick relevant facts from ultra-long windows; hallucination; outdated or incorrect retrieval; missing reasoning steps. IterDRAG mitigates several of these. Practical heuristics to avoid collapse/noise - prefer iterative retrieval for multi-hop; limit iterations; constrain decoding to Self-Ask format; reverse doc order; use demonstrations containing documents to teach extraction behavior. Computation-allocation model (predictor) - apply inverse-sigmoid to metric then model: σ⁻¹(P(θ)) ≈ (a + b ⊙ i)^T log(θ) + c, where i = (i_doc,i_shot,0) captures per-task informativeness (gain from +1 doc / +1 shot). Fit a,b,c with OLS. Model diagnostics & use - full model (with b and sigmoidal σ) gives best R² / lowest MSE; generalizes across domains and extrapolates to larger Lmax (best below 1M; predictions degrade toward 5M). Use model to pick near-optimal θ under compute constraints. Efficiency notes - retrieval cost ignored relative to LLM inference; document-recall improves with k but NDCG and generation quality show diminishing returns — re-ranking / filtering recommended. IterDRAG trades extra API calls for better use of tokens. Takeaway intuition - rather than dump more docs into one shot, teach the model via demonstrations and/or let it iteratively decompose queries; this allocates the same token budget more effectively and yields near-linear gains in practice. Disclaimer: This is an AI-powered production. The scripts, insights, and voices featured in this podcast are generated entirely by Artificial Intelligence models. While we strive for technical accuracy by grounding our episodes in original research papers, listeners are encouraged to consult the primary sources for critical applications.

Comments
  • T-Retriever: Hierarchical Graph Retrieval via Semantic-Structural Entropy 12 дней назад
    T-Retriever: Hierarchical Graph Retrieval via Semantic-Structural Entropy
    Опубликовано: 12 дней назад
  • AI агенты в 2026: всё что работает прямо сейчас (Claude Code, n8n, RAG, OpenClaw, Agent Teams) 1 день назад
    AI агенты в 2026: всё что работает прямо сейчас (Claude Code, n8n, RAG, OpenClaw, Agent Teams)
    Опубликовано: 1 день назад
  • Как ПРОЙТИ алгоритмическую секцию 36 минут назад
    Как ПРОЙТИ алгоритмическую секцию
    Опубликовано: 36 минут назад
  • LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры 1 год назад
    LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры
    Опубликовано: 1 год назад
  • Фильм Алексея Семихатова «ГРАВИТАЦИЯ» 6 дней назад
    Фильм Алексея Семихатова «ГРАВИТАЦИЯ»
    Опубликовано: 6 дней назад
  • DiskANN: Billion-Point Nearest Neighbor Search on a Single Node 2 недели назад
    DiskANN: Billion-Point Nearest Neighbor Search on a Single Node
    Опубликовано: 2 недели назад
  • NotebookLM на максималках. Как изучать всё быстрее чем 99% пользователей 2 месяца назад
    NotebookLM на максималках. Как изучать всё быстрее чем 99% пользователей
    Опубликовано: 2 месяца назад
  • Как заговорить на любом языке? Главная ошибка 99% людей в изучении. Полиглот Дмитрий Петров. 2 недели назад
    Как заговорить на любом языке? Главная ошибка 99% людей в изучении. Полиглот Дмитрий Петров.
    Опубликовано: 2 недели назад
  • Война с Ираном. Куда движется и откуда готовилось нападение. Пастуховская Кухня 1 день назад
    Война с Ираном. Куда движется и откуда готовилось нападение. Пастуховская Кухня
    Опубликовано: 1 день назад
  • Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение 1 год назад
    Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение
    Опубликовано: 1 год назад
  • Проблема нержавеющей стали 3 недели назад
    Проблема нержавеющей стали
    Опубликовано: 3 недели назад
  • Искусственный интеллект Undermind против традиционного поиска литературы: результаты меня шокиров... 5 дней назад
    Искусственный интеллект Undermind против традиционного поиска литературы: результаты меня шокиров...
    Опубликовано: 5 дней назад
  • Введение в MCP | Протокол MCP - 01 2 недели назад
    Введение в MCP | Протокол MCP - 01
    Опубликовано: 2 недели назад
  • NotebookLM: большой разбор инструмента (12 сценариев применения) 2 месяца назад
    NotebookLM: большой разбор инструмента (12 сценариев применения)
    Опубликовано: 2 месяца назад
  • Трамп разгромил Иран. Причины и ход конфликта | Реакция Путина, протест в США, атаки на Израиль 1 день назад
    Трамп разгромил Иран. Причины и ход конфликта | Реакция Путина, протест в США, атаки на Израиль
    Опубликовано: 1 день назад
  • 🧠 ГЕНИЙ, КОТОРЫЙ ВИДИТ БОЛЬШЕ ДРУГИХ 🎬 Профессор Т 🏷 ДЕТЕКТИВНЫЙ СЕРИАЛ. 1 сезон. 9 дней назад
    🧠 ГЕНИЙ, КОТОРЫЙ ВИДИТ БОЛЬШЕ ДРУГИХ 🎬 Профессор Т 🏷 ДЕТЕКТИВНЫЙ СЕРИАЛ. 1 сезон.
    Опубликовано: 9 дней назад
  • Технический анализ: как агенты ИИ игнорируют 40 лет прогресса в области безопасности. 1 месяц назад
    Технический анализ: как агенты ИИ игнорируют 40 лет прогресса в области безопасности.
    Опубликовано: 1 месяц назад
  • The Bullsh** Benchmark 3 часа назад
    The Bullsh** Benchmark
    Опубликовано: 3 часа назад
  • RQ-RAG: Learning to Refine Queries for Retrieval Augmented Generation 8 дней назад
    RQ-RAG: Learning to Refine Queries for Retrieval Augmented Generation
    Опубликовано: 8 дней назад
  • MCTS-RAG: Integrating Tree Search with Adaptive Knowledge Retrieval 7 дней назад
    MCTS-RAG: Integrating Tree Search with Adaptive Knowledge Retrieval
    Опубликовано: 7 дней назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5