• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

1W-MINDS: Yi Ma, April 1, 2021, Deep Networks from First Principles скачать в хорошем качестве

1W-MINDS: Yi Ma, April 1, 2021, Deep Networks from First Principles 4 года назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
1W-MINDS: Yi Ma, April 1, 2021, Deep Networks from First Principles
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: 1W-MINDS: Yi Ma, April 1, 2021, Deep Networks from First Principles в качестве 4k

У нас вы можете посмотреть бесплатно 1W-MINDS: Yi Ma, April 1, 2021, Deep Networks from First Principles или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон 1W-MINDS: Yi Ma, April 1, 2021, Deep Networks from First Principles в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



1W-MINDS: Yi Ma, April 1, 2021, Deep Networks from First Principles

In this talk, we offer an entirely “white box’’ interpretation of deep (convolution) networks from the perspective of data compression (and group invariance). In particular, we show how modern deep layered architectures, linear (convolution) operators and nonlinear activations, and even all parameters can be derived from the principle of maximizing rate reduction (with group invariance). All layers, operators, and parameters of the network are explicitly constructed via forward propagation, instead of learned via back propagation. All components of so-obtained network, called ReduNet, have precise optimization, geometric, and statistical interpretation. There are also several nice surprises from this principled approach: it reveals a fundamental tradeoff between invariance and sparsity for class separability; it reveals a fundamental connection between deep networks and Fourier transform for group invariance – the computational advantage in the spectral domain (why spiking neurons?); this approach also clarifies the mathematical role of forward propagation (optimization) and backward propagation (variation). In particular, the so-obtained ReduNet is amenable to fine-tuning via both forward and backward (stochastic) propagation, both for optimizing the same objective. This is joint work with students Yaodong Yu, Ryan Chan, Haozhi Qi of Berkeley, Dr. Chong You now at Google Research, and Professor John Wright of Columbia University.

Comments
  • Yi Ma | Deep Networks from First Principles 4 года назад
    Yi Ma | Deep Networks from First Principles
    Опубликовано: 4 года назад
  • Deep Learning Bootcamp: Kaiming He 1 год назад
    Deep Learning Bootcamp: Kaiming He
    Опубликовано: 1 год назад
  • Study stream 15 #studywithme #leetcode #programming #systemdesign #ai #substack Трансляция закончилась 14 часов назад
    Study stream 15 #studywithme #leetcode #programming #systemdesign #ai #substack
    Опубликовано: Трансляция закончилась 14 часов назад
  • Beyond Empirical Risk Minimization: the lessons of deep learning 6 лет назад
    Beyond Empirical Risk Minimization: the lessons of deep learning
    Опубликовано: 6 лет назад
  • Yi Ma - White-Box Deep (Convolution) Networks from First Principles 3 года назад
    Yi Ma - White-Box Deep (Convolution) Networks from First Principles
    Опубликовано: 3 года назад
  • ICML 2024 Tutorial: Physics of Language Models 1 год назад
    ICML 2024 Tutorial: Physics of Language Models
    Опубликовано: 1 год назад
  • ICLR 2021 Keynote - 4 года назад
    ICLR 2021 Keynote - "Geometric Deep Learning: The Erlangen Programme of ML" - M Bronstein
    Опубликовано: 4 года назад
  • On the Foundations of Deep Learning: SGD, Overparametrization, and Generalization 6 лет назад
    On the Foundations of Deep Learning: SGD, Overparametrization, and Generalization
    Опубликовано: 6 лет назад
  • EWSC: Diffusion Models Towards High-Dimensional Generative Optimization, Mengdi Wang 1 год назад
    EWSC: Diffusion Models Towards High-Dimensional Generative Optimization, Mengdi Wang
    Опубликовано: 1 год назад
  • Почему диффузия работает лучше, чем авторегрессия? 1 год назад
    Почему диффузия работает лучше, чем авторегрессия?
    Опубликовано: 1 год назад
  • CTRL: Closed Loop Data Transcription via Rate Reduction - Professor Yi Ma 3 года назад
    CTRL: Closed Loop Data Transcription via Rate Reduction - Professor Yi Ma
    Опубликовано: 3 года назад
  • Feature Learning in Infinite-Width Neural Networks 5 лет назад
    Feature Learning in Infinite-Width Neural Networks
    Опубликовано: 5 лет назад
  • Stanford Seminar - Information Theory of Deep Learning, Naftali Tishby 7 лет назад
    Stanford Seminar - Information Theory of Deep Learning, Naftali Tishby
    Опубликовано: 7 лет назад
  • Learning and Generalization in Over-parametrized Neural Networks, Going Beyond Kernels 6 лет назад
    Learning and Generalization in Over-parametrized Neural Networks, Going Beyond Kernels
    Опубликовано: 6 лет назад
  • The Origin and Nature of Intelligence Workshop 2022 3 года назад
    The Origin and Nature of Intelligence Workshop 2022
    Опубликовано: 3 года назад
  • Deep learning on graphs: successes, challenges | Graph Neural Networks | Michael Bronstein 5 лет назад
    Deep learning on graphs: successes, challenges | Graph Neural Networks | Michael Bronstein
    Опубликовано: 5 лет назад
  • Deep Maths - machine learning and mathematics 3 года назад
    Deep Maths - machine learning and mathematics
    Опубликовано: 3 года назад
  • Stanford CS25: V2 I Introduction to Transformers w/ Andrej Karpathy 2 года назад
    Stanford CS25: V2 I Introduction to Transformers w/ Andrej Karpathy
    Опубликовано: 2 года назад
  • Самая сложная модель из тех, что мы реально понимаем 1 месяц назад
    Самая сложная модель из тех, что мы реально понимаем
    Опубликовано: 1 месяц назад
  • Liquid Neural Networks 4 года назад
    Liquid Neural Networks
    Опубликовано: 4 года назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5