• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Neural Networks Are Elastic Origami! [Prof. Randall Balestriero] скачать в хорошем качестве

Neural Networks Are Elastic Origami! [Prof. Randall Balestriero] 10 месяцев назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Neural Networks Are Elastic Origami! [Prof. Randall Balestriero]
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Neural Networks Are Elastic Origami! [Prof. Randall Balestriero] в качестве 4k

У нас вы можете посмотреть бесплатно Neural Networks Are Elastic Origami! [Prof. Randall Balestriero] или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Neural Networks Are Elastic Origami! [Prof. Randall Balestriero] в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Neural Networks Are Elastic Origami! [Prof. Randall Balestriero]

Professor Randall Balestriero joins us to discuss neural network geometry, spline theory, and emerging phenomena in deep learning, based on research presented at ICML. Topics include the delayed emergence of adversarial robustness in neural networks ("grokking"), geometric interpretations of neural networks via spline theory, and challenges in reconstruction learning. We also cover geometric analysis of Large Language Models (LLMs) for toxicity detection and the relationship between intrinsic dimensionality and model control in RLHF. SPONSOR MESSAGES: *** CentML offers competitive pricing for GenAI model deployment, with flexible options to suit a wide range of models, from small to large-scale deployments. https://centml.ai/pricing/ Tufa AI Labs is a brand new research lab in Zurich started by Benjamin Crouzier focussed on o-series style reasoning and AGI. Are you interested in working on reasoning, or getting involved in their events? Goto https://tufalabs.ai/ *** Show notes and transcript: https://www.dropbox.com/scl/fi/3lufge... TOC: [00:00:00] Introduction 1. Neural Network Geometry and Spline Theory [00:01:41] 1.1 Neural Network Geometry and Spline Theory [00:07:41] 1.2 Deep Networks Always Grok [00:11:39] 1.3 Grokking and Adversarial Robustness [00:16:09] 1.4 Double Descent and Catastrophic Forgetting 2. Reconstruction Learning [00:18:49] 2.1 Reconstruction Learning [00:24:15] 2.2 Frequency Bias in Neural Networks 3. Geometric Analysis of Neural Networks [00:29:02] 3.1 Geometric Analysis of Neural Networks [00:34:41] 3.2 Adversarial Examples and Region Concentration 4. LLM Safety and Geometric Analysis [00:40:05] 4.1 LLM Safety and Geometric Analysis [00:46:11] 4.2 Toxicity Detection in LLMs [00:52:24] 4.3 Intrinsic Dimensionality and Model Control [00:58:07] 4.4 RLHF and High-Dimensional Spaces 5. Conclusion [01:02:13] 5.1 Neural Tangent Kernel [01:08:07] 5.2 Conclusion REFS: [00:01:35] Balestriero/Humayun – Deep network geometry & input space partitioning https://arxiv.org/html/2408.04809v1 [00:03:55] Balestriero & Paris – Linking deep networks to adaptive spline operators https://proceedings.mlr.press/v80/bal... [00:13:55] Song et al. – Gradient-based white-box adversarial attacks https://arxiv.org/abs/2012.14965 [00:16:05] Humayun, Balestriero & Baraniuk – Grokking phenomenon & emergent robustness https://arxiv.org/abs/2402.15555 [00:18:25] Humayun – Training dynamics & double descent via linear region evolution https://arxiv.org/abs/2310.12977 [00:20:15] Balestriero – Power diagram partitions in DNN decision boundaries https://arxiv.org/abs/1905.08443 [00:23:00] Frankle & Carbin – Lottery Ticket Hypothesis for network pruning https://arxiv.org/abs/1803.03635 [00:24:00] Belkin et al. – Double descent phenomenon in modern ML https://arxiv.org/abs/1812.11118 [00:25:55] Balestriero et al. – Batch normalization’s regularization effects https://arxiv.org/pdf/2209.14778 [00:29:35] EU – EU AI Act 2024 with compute restrictions https://www.lw.com/admin/upload/SiteA... [00:39:30] Humayun, Balestriero & Baraniuk – SplineCam: Visualizing deep network geometry https://openaccess.thecvf.com/content... [00:40:40] Carlini – Trade-offs between adversarial robustness and accuracy https://arxiv.org/abs/1902.06705 [00:44:55] Balestriero & LeCun – Limitations of reconstruction-based learning methods https://raw.githubusercontent.com/mlr... [00:47:20] Balestriero & LeCun – Spectral analysis of neural network learning https://proceedings.neurips.cc/paper_... [00:49:45] He et al. – MAE: Masked Autoencoders for self-supervised learning https://arxiv.org/abs/2111.06377 [00:54:50] Balestriero et al. – Geometric analysis of LLM layers for toxicity detection https://arxiv.org/abs/2309.12312 [00:59:35] Balestriero et al. – Superior toxicity detection via geometric features https://arxiv.org/html/2312.01648v2 [01:04:45] UofT ML – Self-attention control & context length effects https://arxiv.org/abs/2310.04444 [01:11:55] Roberts – Foundations of deep learning theory https://arxiv.org/abs/2106.10165 [01:15:40] Balestriero & Cha – Kolmogorov GAM Networks via spline partition theory https://arxiv.org/pdf/2501.00704 [01:16:40] Various – Graph Kolmogorov-Arnold Networks (GKAN) extension https://www.nature.com/articles/s4159...

Comments
  • Визуализация скрытого пространства: PCA, t-SNE, UMAP | Глубокое обучение с анимацией 1 год назад
    Визуализация скрытого пространства: PCA, t-SNE, UMAP | Глубокое обучение с анимацией
    Опубликовано: 1 год назад
  • The Physicist Who Puts Penrose’s Quantum Ideas To The Test | Ivette Fuentes 3 дня назад
    The Physicist Who Puts Penrose’s Quantum Ideas To The Test | Ivette Fuentes
    Опубликовано: 3 дня назад
  • NYC PIT Pop-Up Day 8! 11/03/25 - Raj Korpan & The TIER Lab Live Demo 19 минут назад
    NYC PIT Pop-Up Day 8! 11/03/25 - Raj Korpan & The TIER Lab Live Demo
    Опубликовано: 19 минут назад
  • He Co-Invented the Transformer. Now: Continuous Thought Machines [Llion Jones / Luke Darlow] 1 месяц назад
    He Co-Invented the Transformer. Now: Continuous Thought Machines [Llion Jones / Luke Darlow]
    Опубликовано: 1 месяц назад
  • ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию? 3 недели назад
    ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию?
    Опубликовано: 3 недели назад
  • Появляется новый тип искусственного интеллекта, и он лучше, чем LLMS? 1 день назад
    Появляется новый тип искусственного интеллекта, и он лучше, чем LLMS?
    Опубликовано: 1 день назад
  • The 7 дней назад
    The "Final Boss" of Deep Learning
    Опубликовано: 7 дней назад
  • Почему диффузия работает лучше, чем авторегрессия? 1 год назад
    Почему диффузия работает лучше, чем авторегрессия?
    Опубликовано: 1 год назад
  • Почему «Трансформеры» заменяют CNN? 4 недели назад
    Почему «Трансформеры» заменяют CNN?
    Опубликовано: 4 недели назад
  • Neural and Non-Neural AI, Reasoning, Transformers, and LSTMs 1 год назад
    Neural and Non-Neural AI, Reasoning, Transformers, and LSTMs
    Опубликовано: 1 год назад
  • Как применять нейронки в 2026. Андрей Себрант, Яндекс | подкаст 15 часов назад
    Как применять нейронки в 2026. Андрей Себрант, Яндекс | подкаст
    Опубликовано: 15 часов назад
  • Кризис начался: 2026 будет хуже // Комолов & Абдулов. Числа года 17 часов назад
    Кризис начался: 2026 будет хуже // Комолов & Абдулов. Числа года
    Опубликовано: 17 часов назад
  • Gradient Descent vs Evolution | How Neural Networks Learn 9 месяцев назад
    Gradient Descent vs Evolution | How Neural Networks Learn
    Опубликовано: 9 месяцев назад
  • The Real Reason Huge AI Models Actually Work [Prof. Andrew Wilson] 3 месяца назад
    The Real Reason Huge AI Models Actually Work [Prof. Andrew Wilson]
    Опубликовано: 3 месяца назад
  • Yann LeCun | Self-Supervised Learning, JEPA, World Models, and the future of AI 3 месяца назад
    Yann LeCun | Self-Supervised Learning, JEPA, World Models, and the future of AI
    Опубликовано: 3 месяца назад
  • Обучение с подкреплением для агентов — Уилл Браун, исследователь машинного обучения в Morgan Stanley 9 месяцев назад
    Обучение с подкреплением для агентов — Уилл Браун, исследователь машинного обучения в Morgan Stanley
    Опубликовано: 9 месяцев назад
  • Как внимание стало настолько эффективным [GQA/MLA/DSA] 1 месяц назад
    Как внимание стало настолько эффективным [GQA/MLA/DSA]
    Опубликовано: 1 месяц назад
  • WE MUST ADD STRUCTURE TO DEEP LEARNING BECAUSE... 1 год назад
    WE MUST ADD STRUCTURE TO DEEP LEARNING BECAUSE...
    Опубликовано: 1 год назад
  • Теренс Тао о том, как Григорий Перельман решил гипотезу Пуанкаре | Лекс Фридман 1 месяц назад
    Теренс Тао о том, как Григорий Перельман решил гипотезу Пуанкаре | Лекс Фридман
    Опубликовано: 1 месяц назад
  • TOTEM: TOkenized Time Series EMbeddings for General Time Series Analysis 10 месяцев назад
    TOTEM: TOkenized Time Series EMbeddings for General Time Series Analysis
    Опубликовано: 10 месяцев назад

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5