• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

The Real Reason Huge AI Models Actually Work [Prof. Andrew Wilson] скачать в хорошем качестве

The Real Reason Huge AI Models Actually Work [Prof. Andrew Wilson] 1 месяц назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
The Real Reason Huge AI Models Actually Work [Prof. Andrew Wilson]
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: The Real Reason Huge AI Models Actually Work [Prof. Andrew Wilson] в качестве 4k

У нас вы можете посмотреть бесплатно The Real Reason Huge AI Models Actually Work [Prof. Andrew Wilson] или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон The Real Reason Huge AI Models Actually Work [Prof. Andrew Wilson] в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



The Real Reason Huge AI Models Actually Work [Prof. Andrew Wilson]

Why can billion-parameter models perform so well without catastrophically overfitting? The answer lies in the mysterious "simplicity bias" that emerges at scale, a core concept of the double descent phenomenon. Professor Andrew Wilson from NYU explains why many common-sense ideas in artificial intelligence might be wrong. For decades, the rule of thumb in machine learning has been to fear complexity. The thinking goes: if your model has too many parameters (is "too complex") for the amount of data you have, it will "overfit" by essentially memorizing the data instead of learning the underlying patterns. This leads to poor performance on new, unseen data. This is known as the classic "bias-variance trade-off" i.e. a balancing act between a model that's too simple and one that's too complex. *SPONSOR MESSAGES* — Tufa AI Labs is an AI research lab based in Zurich. *They are hiring ML research engineers!* This is a once in a lifetime opportunity to work with one of the best labs in Europe Contact Benjamin Crouzier - https://tufalabs.ai/ — Take the Prolific human data survey - https://www.prolific.com/humandatasur... and be the first to see the results and benchmark their practices against the wider community! — cyber•Fund https://cyber.fund/?utm_source=mlst is a founder-led investment firm accelerating the cybernetic economy Oct SF conference - https://dagihouse.com/?utm_source=mlst - Joscha Bach keynoting(!) + OAI, Anthropic, NVDA,++ Hiring a SF VC Principal: https://talent.cyber.fund/companies/c... Submit investment deck: https://cyber.fund/contact?utm_source... — Description Continued: Professor Wilson challenges this fundamental belief (fearing complexity). He makes a few surprising points: **Bigger Can Be Better**: massive models don't just get more flexible; they also develop a stronger "simplicity bias". So, if your model is overfitting, the solution might paradoxically be to make it even bigger. **The "Bias-Variance Trade-off" is a Misnomer**: Wilson claims you don't actually have to trade one for the other. You can have a model that is incredibly expressive and flexible while also being strongly biased toward simple solutions. He points to the "double descent" phenomenon, where performance first gets worse as models get more complex, but then surprisingly starts getting better again. **Honest Beliefs and Bayesian Thinking**: His core philosophy is that we should build models that honestly represent our beliefs about the world. We believe the world is complex, so our models should be expressive. But we also believe in Occam's razor—that the simplest explanation is often the best. He champions Bayesian methods, which naturally balance these two ideas through a process called marginalization, which he describes as an automatic Occam's razor. TOC: [00:00:00] Introduction and Thesis [00:04:19] Challenging Conventional Wisdom [00:11:17] The Philosophy of a Scientist-Engineer [00:16:47] Expressiveness, Overfitting, and Bias [00:28:15] Understanding, Compression, and Kolmogorov Complexity [01:05:06] The Surprising Power of Generalization [01:13:21] The Elegance of Bayesian Inference [01:33:02] The Geometry of Learning [01:46:28] Practical Advice and The Future of AI Prof. Andrew Gordon Wilson: https://x.com/andrewgwils https://cims.nyu.edu/~andrewgw/ https://scholar.google.com/citations?...    • Andrew Gordon Wilson | Polylogues      • How Do We Build a General Intelligence?   TRANSCRIPT: https://app.rescript.info/public/shar... REFS: Deep Learning is Not So Mysterious or Different [Andrew Gordon Wilson] https://arxiv.org/abs/2503.02113 Bayesian Deep Learning and a Probabilistic Perspective of Generalization [Andrew Gordon Wilson, Pavel Izmailov] https://arxiv.org/abs/2002.08791 Compute-Optimal LLMs Provably Generalize Better With Scale [Marc Finzi, Sanyam Kapoor, Diego Granziol, Anming Gu, Christopher De Sa, J. Zico Kolter, Andrew Gordon Wilson] https://arxiv.org/abs/2504.15208

Comments
  • Что ошибочно пишут в книгах об ИИ [Двойной спуск] 3 недели назад
    Что ошибочно пишут в книгах об ИИ [Двойной спуск]
    Опубликовано: 3 недели назад
  • This is why Deep Learning is really weird. 1 год назад
    This is why Deep Learning is really weird.
    Опубликовано: 1 год назад
  • The Strange Math That Predicts (Almost) Anything 3 месяца назад
    The Strange Math That Predicts (Almost) Anything
    Опубликовано: 3 месяца назад
  • Исследователь Google показывает, что жизнь «возникает из кода» [Блез Агуэра и Аркас] 3 недели назад
    Исследователь Google показывает, что жизнь «возникает из кода» [Блез Агуэра и Аркас]
    Опубликовано: 3 недели назад
  • Теренс Тао: Сложнейшие задачи математики, физики и будущее ИИ | Лекс Фридман Подкаст #472 5 месяцев назад
    Теренс Тао: Сложнейшие задачи математики, физики и будущее ИИ | Лекс Фридман Подкаст #472
    Опубликовано: 5 месяцев назад
  • But how do AI images and videos actually work? | Guest video by Welch Labs 3 месяца назад
    But how do AI images and videos actually work? | Guest video by Welch Labs
    Опубликовано: 3 месяца назад
  • Roger Penrose: The Big Bang Was Not The Beginning 11 дней назад
    Roger Penrose: The Big Bang Was Not The Beginning
    Опубликовано: 11 дней назад
  • LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры 1 год назад
    LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры
    Опубликовано: 1 год назад
  • Prof. Chris Bishop's NEW Deep Learning Textbook! 1 год назад
    Prof. Chris Bishop's NEW Deep Learning Textbook!
    Опубликовано: 1 год назад
  • Искусственный интеллект и кибербезопасность: Дэн Боне берет интервью у Сэма Альтмана 3 дня назад
    Искусственный интеллект и кибербезопасность: Дэн Боне берет интервью у Сэма Альтмана
    Опубликовано: 3 дня назад
  • Visualizing transformers and attention | Talk for TNG Big Tech Day '24 11 месяцев назад
    Visualizing transformers and attention | Talk for TNG Big Tech Day '24
    Опубликовано: 11 месяцев назад
  • How AI Taught Itself to See [DINOv3] 2 месяца назад
    How AI Taught Itself to See [DINOv3]
    Опубликовано: 2 месяца назад
  • Stanford AI Club: Jason Wei on 3 Key Ideas in AI in 2025 4 недели назад
    Stanford AI Club: Jason Wei on 3 Key Ideas in AI in 2025
    Опубликовано: 4 недели назад
  • Mathematics: The rise of the machines - Yang-Hui He 1 месяц назад
    Mathematics: The rise of the machines - Yang-Hui He
    Опубликовано: 1 месяц назад
  • Самый важный алгоритм в машинном обучении 1 год назад
    Самый важный алгоритм в машинном обучении
    Опубликовано: 1 год назад
  • This Simple Optimizer Is Revolutionizing How We Train AI [Muon] 1 месяц назад
    This Simple Optimizer Is Revolutionizing How We Train AI [Muon]
    Опубликовано: 1 месяц назад
  • The Limits of AI: Generative AI, NLP, AGI, & What’s Next? 1 месяц назад
    The Limits of AI: Generative AI, NLP, AGI, & What’s Next?
    Опубликовано: 1 месяц назад
  • «Open AI — это пузырь»! Откровения из Кремниевой долины | Братья Либерманы 2 недели назад
    «Open AI — это пузырь»! Откровения из Кремниевой долины | Братья Либерманы
    Опубликовано: 2 недели назад
  • Yann LeCun | Self-Supervised Learning, JEPA, World Models, and the future of AI 1 месяц назад
    Yann LeCun | Self-Supervised Learning, JEPA, World Models, and the future of AI
    Опубликовано: 1 месяц назад
  • Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев 2 недели назад
    Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев
    Опубликовано: 2 недели назад

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5