• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Towards Building a Heavy-Tailed Theory of Stochastic Gradient Descent for Deep Neural Networks скачать в хорошем качестве

Towards Building a Heavy-Tailed Theory of Stochastic Gradient Descent for Deep Neural Networks 3 года назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Towards Building a Heavy-Tailed Theory of Stochastic Gradient Descent for Deep Neural Networks
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Towards Building a Heavy-Tailed Theory of Stochastic Gradient Descent for Deep Neural Networks в качестве 4k

У нас вы можете посмотреть бесплатно Towards Building a Heavy-Tailed Theory of Stochastic Gradient Descent for Deep Neural Networks или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Towards Building a Heavy-Tailed Theory of Stochastic Gradient Descent for Deep Neural Networks в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Towards Building a Heavy-Tailed Theory of Stochastic Gradient Descent for Deep Neural Networks

Abstract: In this talk, I will focus on the 'tail behavior' of SGD in deep learning. I will first empirically illustrate that heavy tails arise in the gradient noise (i.e., the difference between the stochastic gradient and the true gradient). Accordingly, I will propose to model the gradient noise as a heavy-tailed α-stable random vector and accordingly propose to analyze SGD as a discretization of a stochastic differential equation (SDE) driven by a stable process. As opposed to classical SDEs that are driven by a Brownian motion, SDEs driven by stable processes can incur ‘jumps’, which force the SDE (and its discretization) transition from 'narrow minima' to 'wider minima', as proven by existing metastability theory and the extensions that we proved recently. These results open up a different perspective and shed more light on the view that SGD 'prefers' wide minima. In the second part of the talk, I will focus on the generalization properties of such heavy-tailed SDEs and show that the generalization error can be controlled by the Hausdorff dimension of the trajectories of the SDE, which is closely linked to the tail behavior of the driving process. Our results imply that heavier-tailed processes should achieve better generalization; hence, the tail-index of the process can be used as a notion of "capacity metric”. Finally, if time permits, I will talk about the 'originating cause' of such heavy-tailed behavior and present theoretical results which show that heavy-tails can even emerge in very sterile settings such as linear regression with i.i.d Gaussian data. Speaker Bio: Umut Şimşekli is a tenured Research Faculty at Inria Paris and Ecole Normale Superieure de Paris. He received his Ph.D. degree in 2015 from Bogaziçi University, İstanbul. During 2016-2020, he was affiliated with the Signals, Statistics, and Machine Learning Group at Telecom Paris as an associate professor and he visited the University of Oxford, Department of Statistics during the 2019-2020 academic year. He is a laureate of the European Research Council (ERC) Starting Grant 2021 and his current research interests are in the theory of deep learning.

Comments
  • 🧪🧪🧪🧪Как увидеть гиперпространство (4-е измерение) 2 года назад
    🧪🧪🧪🧪Как увидеть гиперпространство (4-е измерение)
    Опубликовано: 2 года назад
  • Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение 1 год назад
    Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение
    Опубликовано: 1 год назад
  • Towards Actionable Decision-Making in the Real World - Hua Wei 3 года назад
    Towards Actionable Decision-Making in the Real World - Hua Wei
    Опубликовано: 3 года назад
  • LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры 1 год назад
    LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры
    Опубликовано: 1 год назад
  • Почему «Трансформеры» заменяют CNN? 2 месяца назад
    Почему «Трансформеры» заменяют CNN?
    Опубликовано: 2 месяца назад
  • Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение 8 лет назад
    Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение
    Опубликовано: 8 лет назад
  • Но что такое нейронная сеть? | Глава 1. Глубокое обучение 8 лет назад
    Но что такое нейронная сеть? | Глава 1. Глубокое обучение
    Опубликовано: 8 лет назад
  • Архитектура JEPA Яна Лекуна. Модели на основе энергии (Energy-Based Models) 1 день назад
    Архитектура JEPA Яна Лекуна. Модели на основе энергии (Energy-Based Models)
    Опубликовано: 1 день назад
  • Зачем нужна топология? 13 дней назад
    Зачем нужна топология?
    Опубликовано: 13 дней назад
  • Способ увидеть невидимое: как создают суперлинзы из оптических метаматериалов 1 день назад
    Способ увидеть невидимое: как создают суперлинзы из оптических метаматериалов
    Опубликовано: 1 день назад
  • Мюнхен, кризис и падение Европы | Михаил Хазин 18 часов назад
    Мюнхен, кризис и падение Европы | Михаил Хазин
    Опубликовано: 18 часов назад
  • Как Гений Математик разгадал тайну вселенной 4 месяца назад
    Как Гений Математик разгадал тайну вселенной
    Опубликовано: 4 месяца назад
  • РЕАЛЬНОСТЬ НЕ СУЩЕСТВУЕТ | Пока вы на неё не посмотрите 3 недели назад
    РЕАЛЬНОСТЬ НЕ СУЩЕСТВУЕТ | Пока вы на неё не посмотрите
    Опубликовано: 3 недели назад
  • Теория струн (ScienceClic) 4 года назад
    Теория струн (ScienceClic)
    Опубликовано: 4 года назад
  • Путешествие в заквантовый мир. Визуализация субатомных частиц, вирусов, и молекул 9 месяцев назад
    Путешествие в заквантовый мир. Визуализация субатомных частиц, вирусов, и молекул
    Опубликовано: 9 месяцев назад
  • Сергей Лопатин: Все было не так. Новости биологии 2 дня назад
    Сергей Лопатин: Все было не так. Новости биологии
    Опубликовано: 2 дня назад
  • Мировое правительство: Версия без мифов / Уроки истории / МИНАЕВ 21 час назад
    Мировое правительство: Версия без мифов / Уроки истории / МИНАЕВ
    Опубликовано: 21 час назад
  • Странный предел, после которого свет начинает вышибать частицы из космической пустоты 1 день назад
    Странный предел, после которого свет начинает вышибать частицы из космической пустоты
    Опубликовано: 1 день назад
  • Космическая плазма: что происходит между Солнцем и Землёй – Семихатов, Зелёный 4 дня назад
    Космическая плазма: что происходит между Солнцем и Землёй – Семихатов, Зелёный
    Опубликовано: 4 дня назад
  • Лучший документальный фильм про создание ИИ 1 месяц назад
    Лучший документальный фильм про создание ИИ
    Опубликовано: 1 месяц назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5