• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Why do LLMs struggle with Long Context? | Federico Barbero, Google DeepMind | BLISS e.V. скачать в хорошем качестве

Why do LLMs struggle with Long Context? | Federico Barbero, Google DeepMind | BLISS e.V. 1 месяц назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Why do LLMs struggle with Long Context? | Federico Barbero, Google DeepMind | BLISS e.V.
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Why do LLMs struggle with Long Context? | Federico Barbero, Google DeepMind | BLISS e.V. в качестве 4k

У нас вы можете посмотреть бесплатно Why do LLMs struggle with Long Context? | Federico Barbero, Google DeepMind | BLISS e.V. или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Why do LLMs struggle with Long Context? | Federico Barbero, Google DeepMind | BLISS e.V. в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Why do LLMs struggle with Long Context? | Federico Barbero, Google DeepMind | BLISS e.V.

We are excited to feature Federico Barbero, who is currently at DeepMind in London and PhD Student at University of Oxford and will discuss "Why do LLMs struggle with Long Context?", lasting approximately 45 minutes. 🎥 Watch to Discover: There is great interest in scaling the number of tokens that LLMs can efficiently and effectively ingest, a problem that is notoriously difficult. Training LLMs on a smaller context and hoping that they generalize well to much longer contexts has largely proven to be ineffective. In this talk, I will go over our work that aims to understand the failure points in modern LLM architectures. In particular, I will discuss dispersion in the softmax layers, generalization issues related to positional encodings, and smoothing effects that occur in the representations. Understanding these issues has proven to be fruitful, with related ideas now already being part of frontier models such as LLaMa 4. The talk is intended to be broadly accessible, but a basic understanding of the Transformer architectures used in modern LLMs will be helpful. Recorded on October 21, 2025 at TU Berlin, Berlin. About BLISS e.V.: We are BLISS e.V., the AI organization in Berlin that connects like-minded individuals who share great interest and passion for the field of machine learning. This winter 2025/26, we will, again, host an exciting speaker series on site in Berlin, featuring excellent researchers from Tübingen AI Center, DeepMind, Microsoft, King's College London, cohere, and ETH Zürich. We also host: Weekly reading groups for in-depth discussions Biweekly community events for hands-on learning and networking 🎉 Get Involved: Interested in Machine Learning? Follow us to stay updated on upcoming events and join our community of AI enthusiasts! 🔗 Event Links: Talk-specific Meetup: https://www.meetup.com/bliss-speaker-... 🗂️ Slides: https://docs.google.com/presentation/... 00:00 Introduction 05:02 Part 1: Dispersion 20:23 Part 2: Positional Encodings 34:25 Summary 38:50 Q&A

Comments
  • Управление поведением LLM без тонкой настройки 10 дней назад
    Управление поведением LLM без тонкой настройки
    Опубликовано: 10 дней назад
  • Radiance Fields are Dead (and why that's OK) | Daniel Duckworth, Google DeepMind | BLISS e.V. 5 месяцев назад
    Radiance Fields are Dead (and why that's OK) | Daniel Duckworth, Google DeepMind | BLISS e.V.
    Опубликовано: 5 месяцев назад
  • GraphRAG: союз графов знаний и RAG: Эмиль Эйфрем 1 год назад
    GraphRAG: союз графов знаний и RAG: Эмиль Эйфрем
    Опубликовано: 1 год назад
  • LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры 1 год назад
    LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры
    Опубликовано: 1 год назад
  • Конференция NeurIPS 2025 в Сан-Диего: объяснение иллюзии мышления. 10 дней назад
    Конференция NeurIPS 2025 в Сан-Диего: объяснение иллюзии мышления.
    Опубликовано: 10 дней назад
  • Самая сложная модель из тех, что мы реально понимаем 7 дней назад
    Самая сложная модель из тех, что мы реально понимаем
    Опубликовано: 7 дней назад
  • Почему «Трансформеры» заменяют CNN? 3 недели назад
    Почему «Трансформеры» заменяют CNN?
    Опубликовано: 3 недели назад
  • Архитектура памяти на основе нейробиологии. Моя система локального обучения ИИ без файн-тюнинга! 1 день назад
    Архитектура памяти на основе нейробиологии. Моя система локального обучения ИИ без файн-тюнинга!
    Опубликовано: 1 день назад
  • Как внимание стало настолько эффективным [GQA/MLA/DSA] 1 месяц назад
    Как внимание стало настолько эффективным [GQA/MLA/DSA]
    Опубликовано: 1 месяц назад
  • Scaling AI Safety Across Cultures and Languages | Beyza Ermiş, Cohere | BLISS e.V. 1 месяц назад
    Scaling AI Safety Across Cultures and Languages | Beyza Ermiş, Cohere | BLISS e.V.
    Опубликовано: 1 месяц назад
  • Демис Хассабис: Будущее ИИ, симуляция реальности, физика, игры | Лекс Фридман Подкаст #475 5 месяцев назад
    Демис Хассабис: Будущее ИИ, симуляция реальности, физика, игры | Лекс Фридман Подкаст #475
    Опубликовано: 5 месяцев назад
  • Теренс Тао о том, как Григорий Перельман решил гипотезу Пуанкаре | Лекс Фридман 1 месяц назад
    Теренс Тао о том, как Григорий Перельман решил гипотезу Пуанкаре | Лекс Фридман
    Опубликовано: 1 месяц назад
  • ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию? 3 недели назад
    ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию?
    Опубликовано: 3 недели назад
  • Что такое стек ИИ? Магистратура LLM, RAG и аппаратное обеспечение ИИ 1 месяц назад
    Что такое стек ИИ? Магистратура LLM, RAG и аппаратное обеспечение ИИ
    Опубликовано: 1 месяц назад
  • Как LLM могут хранить факты | Глава 7, Глубокое обучение 1 год назад
    Как LLM могут хранить факты | Глава 7, Глубокое обучение
    Опубликовано: 1 год назад
  • Чем ОПАСЕН МАХ? Разбор приложения специалистом по кибер безопасности 1 месяц назад
    Чем ОПАСЕН МАХ? Разбор приложения специалистом по кибер безопасности
    Опубликовано: 1 месяц назад
  • Тренды в ИИ 2026. К чему готовиться каждому. 2 дня назад
    Тренды в ИИ 2026. К чему готовиться каждому.
    Опубликовано: 2 дня назад
  • Обучение с подкреплением для агентов — Уилл Браун, исследователь машинного обучения в Morgan Stanley 9 месяцев назад
    Обучение с подкреплением для агентов — Уилл Браун, исследователь машинного обучения в Morgan Stanley
    Опубликовано: 9 месяцев назад
  • Предел развития НЕЙРОСЕТЕЙ 11 месяцев назад
    Предел развития НЕЙРОСЕТЕЙ
    Опубликовано: 11 месяцев назад
  • Перестаньте изучать n8n в 2025 году... Лучше изучите ЭТО 3 месяца назад
    Перестаньте изучать n8n в 2025 году... Лучше изучите ЭТО
    Опубликовано: 3 месяца назад

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5