• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Grokking, Generalization Collapse, and Dynamics of Training Deep Neural Nets [Charles Martin] - 734 скачать в хорошем качестве

Grokking, Generalization Collapse, and Dynamics of Training Deep Neural Nets [Charles Martin] - 734 6 месяцев назад

Podcast

Tech

Technology

ML

AI

Machine Learning

Artificial Intelligence

Sam Charrington

data

science

computer science

TWIML AI

deep learning

neural networks

grokking

generalization collapse

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Grokking, Generalization Collapse, and Dynamics of Training Deep Neural Nets [Charles Martin] - 734
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Grokking, Generalization Collapse, and Dynamics of Training Deep Neural Nets [Charles Martin] - 734 в качестве 4k

У нас вы можете посмотреть бесплатно Grokking, Generalization Collapse, and Dynamics of Training Deep Neural Nets [Charles Martin] - 734 или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Grokking, Generalization Collapse, and Dynamics of Training Deep Neural Nets [Charles Martin] - 734 в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Grokking, Generalization Collapse, and Dynamics of Training Deep Neural Nets [Charles Martin] - 734

Today, we're joined by Charles Martin, founder of Calculation Consulting, to discuss Weight Watcher, an open-source tool for analyzing and improving Deep Neural Networks (DNNs) based on principles from theoretical physics. We explore the foundations of the Heavy-Tailed Self-Regularization (HTSR) theory that underpins it, which combines random matrix theory and renormalization group ideas to uncover deep insights about model training dynamics. Charles walks us through WeightWatcher’s ability to detect three distinct learning phases—underfitting, grokking, and generalization collapse—and how its signature “layer quality” metric reveals whether individual layers are underfit, overfit, or optimally tuned. Additionally, we dig into the complexities involved in fine-tuning models, the surprising correlation between model optimality and hallucination, the often-underestimated challenges of search relevance, and their implications for RAG. Finally, Charles shares his insights into real-world applications of generative AI and his lessons learned from working in the field. 🗒️ For the full list of resources for this episode, visit the show notes page: https://twimlai.com/go/734. 🔔 Subscribe to our channel for more great content just like this: https://youtube.com/twimlai?sub_confi... 🗣️ CONNECT WITH US! =============================== Subscribe to the TWIML AI Podcast: https://twimlai.com/podcast/twimlai/ Follow us on Twitter:   / twimlai   Follow us on LinkedIn:   / twimlai   Join our Slack Community: https://twimlai.com/community/ Subscribe to our newsletter: https://twimlai.com/newsletter/ Want to get in touch? Send us a message: https://twimlai.com/contact/ 📖 CHAPTERS =============================== 00:00 - Introduction 4:08 - WeightWatcher 4:50 - Applying quant techniques to AI 7:03 - Overfitting and underfitting in models 11:40 Challenges in fine-tuning 17:00 - Degrees of fine-tuning 22:15 - Spiking neural networks 27:57 - Grokking 29:30 - Generalization collapse 30:00 - HTSR theory 34:17 - Data-centric AI and layer-specific training 38:45 - Renormalization group 39:29 - Challenges in data access and compliance 42:45 - Benchmarking 47:50 - The correlation between hallucination and model optimality 54:14 - Application of theoretical physics to AI 1:00:58 - Renormalization group, HTSR, and critical exponents 1:08:53 - Evaluation of grokking paper 1:13:25 - Real-world applications and lessons learned 🔗 LINKS & RESOURCES =============================== Calculation Consulting - https://calculationconsulting.com/ WeightWatcher - https://weightwatcher.ai/ Implicit Self-Regularization in Deep Neural Networks: Evidence from Random Matrix Theory and Implications for Learning (HTSR paper) - https://jmlr.org/papers/v22/20-410.html 📸 Camera: https://amzn.to/3TQ3zsg 🎙️Microphone: https://amzn.to/3t5zXeV 🚦Lights: https://amzn.to/3TQlX49 🎛️ Audio Interface: https://amzn.to/3TVFAIq 🎚️ Stream Deck: https://amzn.to/3zzm7F5

Comments
  • Zero-Shot Auto-Labeling: The End of Annotation for Computer Vision [Jason Corso] - 735 6 месяцев назад
    Zero-Shot Auto-Labeling: The End of Annotation for Computer Vision [Jason Corso] - 735
    Опубликовано: 6 месяцев назад
  • Building an Immune System for AI Generated Software [Animesh Koratana] - 746 3 месяца назад
    Building an Immune System for AI Generated Software [Animesh Koratana] - 746
    Опубликовано: 3 месяца назад
  • Genie 3: A New Frontier for World Models [Jack Parker-Holder and Shlomi Fruchter] - 743 4 месяца назад
    Genie 3: A New Frontier for World Models [Jack Parker-Holder and Shlomi Fruchter] - 743
    Опубликовано: 4 месяца назад
  • There Is Something Faster Than Light 7 дней назад
    There Is Something Faster Than Light
    Опубликовано: 7 дней назад
  • Spiking Neural Networks for More Efficient AI Algorithms 5 лет назад
    Spiking Neural Networks for More Efficient AI Algorithms
    Опубликовано: 5 лет назад
  • Grokking: Обобщение за пределами переобучения на небольших алгоритмических наборах данных (с пояс... 4 года назад
    Grokking: Обобщение за пределами переобучения на небольших алгоритмических наборах данных (с пояс...
    Опубликовано: 4 года назад
  • MIT 6.S191 (2024): Reinforcement Learning 1 год назад
    MIT 6.S191 (2024): Reinforcement Learning
    Опубликовано: 1 год назад
  • Брифинг М.Захаровой, Москва, 25 декабря 2025 года 18 часов назад
    Брифинг М.Захаровой, Москва, 25 декабря 2025 года
    Опубликовано: 18 часов назад
  • AI, Machine Learning, Deep Learning and Generative AI Explained 1 год назад
    AI, Machine Learning, Deep Learning and Generative AI Explained
    Опубликовано: 1 год назад
  • Что происходит с нейросетью во время обучения? 8 лет назад
    Что происходит с нейросетью во время обучения?
    Опубликовано: 8 лет назад
  • U of T Robotics Institute Seminar: Sergey Levine (UC Berkeley) 9 месяцев назад
    U of T Robotics Institute Seminar: Sergey Levine (UC Berkeley)
    Опубликовано: 9 месяцев назад
  • Каспаров — о скандале в оппозиции. В чем причина окончательного раскола 2 дня назад
    Каспаров — о скандале в оппозиции. В чем причина окончательного раскола
    Опубликовано: 2 дня назад
  • Energy Storage, But Make It Complicated 2 дня назад
    Energy Storage, But Make It Complicated
    Опубликовано: 2 дня назад
  • The Essential Main Ideas of Neural Networks 5 лет назад
    The Essential Main Ideas of Neural Networks
    Опубликовано: 5 лет назад
  • Autoformalization and Verifiable Superintelligence [Christian Szegedy] - 745 3 месяца назад
    Autoformalization and Verifiable Superintelligence [Christian Szegedy] - 745
    Опубликовано: 3 месяца назад
  • Huge Breakthrough: We're Beyond Silicon 3 дня назад
    Huge Breakthrough: We're Beyond Silicon
    Опубликовано: 3 дня назад
  • Inside the “Neurons” of LLMs: Circuit Tracing Their Hidden Biology [Emmanuel Ameisen] - 727 8 месяцев назад
    Inside the “Neurons” of LLMs: Circuit Tracing Their Hidden Biology [Emmanuel Ameisen] - 727
    Опубликовано: 8 месяцев назад
  • MIT Introduction to Deep Learning | 6.S191 9 месяцев назад
    MIT Introduction to Deep Learning | 6.S191
    Опубликовано: 9 месяцев назад
  • Reinforcement Learning from Human Feedback (RLHF) Explained 1 год назад
    Reinforcement Learning from Human Feedback (RLHF) Explained
    Опубликовано: 1 год назад
  • Multimodal AI Models on Apple Silicon with MLX [Prince Canuma] - 744 3 месяца назад
    Multimodal AI Models on Apple Silicon with MLX [Prince Canuma] - 744
    Опубликовано: 3 месяца назад

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5