• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Transformers Need Glasses! [Federico Barbero] скачать в хорошем качестве

Transformers Need Glasses! [Federico Barbero] 1 год назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Transformers Need Glasses! [Federico Barbero]
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Transformers Need Glasses! [Federico Barbero] в качестве 4k

У нас вы можете посмотреть бесплатно Transformers Need Glasses! [Federico Barbero] или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Transformers Need Glasses! [Federico Barbero] в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Transformers Need Glasses! [Federico Barbero]

Federico Barbero (DeepMind/Oxford) is the lead author of "Transformers Need Glasses!". Have you ever wondered why LLMs struggle with seemingly simple tasks like counting or copying long strings of text? We break down the theoretical reasons behind these failures, revealing architectural bottlenecks and the challenges of maintaining information fidelity across extended contexts. Federico explains how these issues are rooted in the transformer's design, drawing parallels to over-squashing in graph neural networks and detailing how the softmax function limits sharp decision-making. But it's not all bad news! Discover practical "glasses" that can help transformers see more clearly, from simple input modifications to architectural tweaks. SPONSOR MESSAGES: *** CentML offers competitive pricing for GenAI model deployment, with flexible options to suit a wide range of models, from small to large-scale deployments. Check out their super fast DeepSeek R1 hosting! https://centml.ai/pricing/ Tufa AI Labs is a brand new research lab in Zurich started by Benjamin Crouzier focussed on o-series style reasoning and AGI. They are hiring a Chief Engineer and ML engineers. Events in Zurich. Goto https://tufalabs.ai/ *** https://federicobarbero.com/ TRANSCRIPT + RESEARCH: https://www.dropbox.com/s/h7ys83ztwkt... TOC: 1. Transformer Limitations: Token Detection & Representation [00:00:00] 1.1 Transformers fail at single token detection [00:02:45] 1.2 Representation collapse in transformers [00:03:21] 1.3 Experiment: LLMs fail at copying last tokens [00:18:00] 1.4 Attention sharpness limitations in transformers 2. Transformer Limitations: Information Flow & Quantization [00:18:50] 2.1 Unidirectional information mixing [00:18:50] 2.2 Unidirectional information flow towards sequence beginning in transformers [00:21:50] 2.3 Diagonal attention heads as expensive no-ops in LAMA/Gemma [00:27:14] 2.4 Sequence entropy affects transformer model distinguishability [00:30:36] 2.5 Quantization limitations lead to information loss & representational collapse [00:38:34] 2.6 LLMs use subitizing as opposed to counting algorithms 3. Transformers and the Nature of Reasoning [00:40:30] 3.1 Turing completeness conditions in transformers [00:43:23] 3.2 Transformers struggle with sequential tasks [00:45:50] 3.3 Windowed attention as solution to information compression [00:51:04] 3.4 Chess engines: mechanical computation vs creative reasoning [01:00:35] 3.5 Epistemic foraging introduced REFS: [00:01:05] Transformers Need Glasses!, Barbero et al. https://proceedings.neurips.cc/paper_... [00:05:30] Softmax is Not Enough, Veličković et al. https://arxiv.org/abs/2410.01104 [00:11:30] Adv Alg Lecture 15, Chawla https://pages.cs.wisc.edu/~shuchi/cou... [00:15:05] Graph Attention Networks, Veličković https://arxiv.org/abs/1710.10903 [00:19:15] Extract Training Data, Carlini et al. https://arxiv.org/pdf/2311.17035 [00:31:30] 1-bit LLMs, Ma et al. https://arxiv.org/abs/2402.17764 [00:38:35] LLMs Solve Math, Nikankin et al. https://arxiv.org/html/2410.21272v1 [00:38:45] Subitizing, Railo https://link.springer.com/10.1007/978... [00:43:25] NN & Chomsky Hierarchy, Delétang et al. https://arxiv.org/abs/2207.02098 [00:51:05] Measure of Intelligence, Chollet https://arxiv.org/abs/1911.01547 [00:52:10] AlphaZero, Silver et al. https://pubmed.ncbi.nlm.nih.gov/30523... [00:55:10] Golden Gate Claude, Anthropic https://www.anthropic.com/news/golden... [00:56:40] Chess Positions, Chase & Simon https://www.sciencedirect.com/science... [01:00:35] Epistemic Foraging, Friston https://www.frontiersin.org/journals/...

Comments
  • AutoGrad Changed Everything (Not Transformers) [Dr. Jeff Beck] 2 месяца назад
    AutoGrad Changed Everything (Not Transformers) [Dr. Jeff Beck]
    Опубликовано: 2 месяца назад
  • The Dangerous Illusion of AI Coding? - Jeremy Howard 2 недели назад
    The Dangerous Illusion of AI Coding? - Jeremy Howard
    Опубликовано: 2 недели назад
  • LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры 1 год назад
    LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры
    Опубликовано: 1 год назад
  • E230 'Building the Future of AI Sales Tools' with Overpath's Dermot O'Connor and Ross Keating 6 дней назад
    E230 'Building the Future of AI Sales Tools' with Overpath's Dermot O'Connor and Ross Keating
    Опубликовано: 6 дней назад
  • The Brain’s Learning Algorithm Isn’t Backpropagation 10 месяцев назад
    The Brain’s Learning Algorithm Isn’t Backpropagation
    Опубликовано: 10 месяцев назад
  • Chess.com Open 2026: Fight For The Spot In Biggest Open Of The Year!! Play-In 2
    Chess.com Open 2026: Fight For The Spot In Biggest Open Of The Year!! Play-In 2
    Опубликовано:
  • How DeepSeek Rewrote the Transformer [MLA] 1 год назад
    How DeepSeek Rewrote the Transformer [MLA]
    Опубликовано: 1 год назад
  • Tensor Logic 3 месяца назад
    Tensor Logic "Unifies" AI Paradigms [Pedro Domingos]
    Опубликовано: 3 месяца назад
  • When AI Discovers the Next Transformer — Robert Lange 4 дня назад
    When AI Discovers the Next Transformer — Robert Lange
    Опубликовано: 4 дня назад
  • Gradient Descent vs Evolution | How Neural Networks Learn 1 год назад
    Gradient Descent vs Evolution | How Neural Networks Learn
    Опубликовано: 1 год назад
  • Янн Лекун «Математические препятствия на пути к ИИ человеческого уровня» 11 месяцев назад
    Янн Лекун «Математические препятствия на пути к ИИ человеческого уровня»
    Опубликовано: 11 месяцев назад
  • OpenAI’s Deep Research Team on Why Reinforcement Learning is the Future for AI Agents 1 год назад
    OpenAI’s Deep Research Team on Why Reinforcement Learning is the Future for AI Agents
    Опубликовано: 1 год назад
  • Как LLM могут хранить факты | Глава 7, Глубокое обучение 1 год назад
    Как LLM могут хранить факты | Глава 7, Глубокое обучение
    Опубликовано: 1 год назад
  • Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение 1 год назад
    Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение
    Опубликовано: 1 год назад
  • NotebookLM Changed Completely: Here's What Matters (in 2026) 1 день назад
    NotebookLM Changed Completely: Here's What Matters (in 2026)
    Опубликовано: 1 день назад
  • Visualizing transformers and attention | Talk for TNG Big Tech Day '24 1 год назад
    Visualizing transformers and attention | Talk for TNG Big Tech Day '24
    Опубликовано: 1 год назад
  • The Man Who Invented Modern AI (Before Everyone Else) — Jürgen Schmidhuber 1 год назад
    The Man Who Invented Modern AI (Before Everyone Else) — Jürgen Schmidhuber
    Опубликовано: 1 год назад
  • Бесплатный визуальный конструктор от Клода просто уничтожил все платные инструменты для дизайна (... 1 день назад
    Бесплатный визуальный конструктор от Клода просто уничтожил все платные инструменты для дизайна (...
    Опубликовано: 1 день назад
  • The Misconception that Almost Stopped AI [How Models Learn Part 1] 10 месяцев назад
    The Misconception that Almost Stopped AI [How Models Learn Part 1]
    Опубликовано: 10 месяцев назад
  • Is human data enough? | David Silver 11 месяцев назад
    Is human data enough? | David Silver
    Опубликовано: 11 месяцев назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5