• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Training more effective learned optimizers, and using them to train themselves (Paper Explained) скачать в хорошем качестве

Training more effective learned optimizers, and using them to train themselves (Paper Explained) 5 лет назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Training more effective learned optimizers, and using them to train themselves (Paper Explained)
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Training more effective learned optimizers, and using them to train themselves (Paper Explained) в качестве 4k

У нас вы можете посмотреть бесплатно Training more effective learned optimizers, and using them to train themselves (Paper Explained) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Training more effective learned optimizers, and using them to train themselves (Paper Explained) в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Training more effective learned optimizers, and using them to train themselves (Paper Explained)

#ai #research #optimization Optimization is still the domain of hand-crafted, simple algorithms. An ML engineer not only has to pick a suitable one for their problem but also often do grid-search over various hyper-parameters. This paper proposes to learn a single, unified optimization algorithm, given not by an equation, but by an LSTM-based neural network, to act as an optimizer for any deep learning problem, and ultimately to optimize itself. OUTLINE: 0:00 - Intro & Outline 2:20 - From Hand-Crafted to Learned Features 4:25 - Current Optimization Algorithm 9:40 - Learned Optimization 15:50 - Optimizer Architecture 22:50 - Optimizing the Optimizer using Evolution Strategies 30:30 - Task Dataset 34:00 - Main Results 36:50 - Implicit Regularization in the Learned Optimizer 41:05 - Generalization across Tasks 41:40 - Scaling Up 45:30 - The Learned Optimizer Trains Itself 47:20 - Pseudocode 49:45 - Broader Impact Statement 52:55 - Conclusion & Comments Paper: https://arxiv.org/abs/2009.11243 Abstract: Much as replacing hand-designed features with learned functions has revolutionized how we solve perceptual tasks, we believe learned algorithms will transform how we train models. In this work we focus on general-purpose learned optimizers capable of training a wide variety of problems with no user-specified hyperparameters. We introduce a new, neural network parameterized, hierarchical optimizer with access to additional features such as validation loss to enable automatic regularization. Most learned optimizers have been trained on only a single task, or a small number of tasks. We train our optimizers on thousands of tasks, making use of orders of magnitude more compute, resulting in optimizers that generalize better to unseen tasks. The learned optimizers not only perform well, but learn behaviors that are distinct from existing first order optimizers. For instance, they generate update steps that have implicit regularization and adapt as the problem hyperparameters (e.g. batch size) or architecture (e.g. neural network width) change. Finally, these learned optimizers show evidence of being useful for out of distribution tasks such as training themselves from scratch. Authors: Luke Metz, Niru Maheswaranathan, C. Daniel Freeman, Ben Poole, Jascha Sohl-Dickstein Links: YouTube:    / yannickilcher   Twitter:   / ykilcher   Discord:   / discord   BitChute: https://www.bitchute.com/channel/yann... Minds: https://www.minds.com/ykilcher Parler: https://parler.com/profile/YannicKilcher LinkedIn:   / yannic-kilcher-488534136   If you want to support me, the best thing to do is to share out the content :) If you want to support me financially (completely optional and voluntary, but a lot of people have asked for this): SubscribeStar: https://www.subscribestar.com/yannick... Patreon:   / yannickilcher   Bitcoin (BTC): bc1q49lsw3q325tr58ygf8sudx2dqfguclvngvy2cq Ethereum (ETH): 0x7ad3513E3B8f66799f507Aa7874b1B0eBC7F85e2 Litecoin (LTC): LQW2TRyKYetVC8WjFkhpPhtpbDM4Vw7r9m Monero (XMR): 4ACL8AGrEo5hAir8A9CeVrW8pEauWvnp1WnSDZxW7tziCDLhZAGsgzhRQABDnFy8yuM9fWJDviJPHKRjV4FWt19CJZN9D4n

Comments
  • Descending through a Crowded Valley -- Benchmarking Deep Learning Optimizers (Paper Explained) 5 лет назад
    Descending through a Crowded Valley -- Benchmarking Deep Learning Optimizers (Paper Explained)
    Опубликовано: 5 лет назад
  • The Essential Main Ideas of Neural Networks 5 лет назад
    The Essential Main Ideas of Neural Networks
    Опубликовано: 5 лет назад
  • We still don't understand magnetism 11 дней назад
    We still don't understand magnetism
    Опубликовано: 11 дней назад
  • [Classic] Deep Residual Learning for Image Recognition (Paper Explained) 5 лет назад
    [Classic] Deep Residual Learning for Image Recognition (Paper Explained)
    Опубликовано: 5 лет назад
  • LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры 1 год назад
    LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры
    Опубликовано: 1 год назад
  • How AI Cracked the Protein Folding Code and Won a Nobel Prize 1 год назад
    How AI Cracked the Protein Folding Code and Won a Nobel Prize
    Опубликовано: 1 год назад
  • The Closest We’ve Come to a Theory of Everything 1 год назад
    The Closest We’ve Come to a Theory of Everything
    Опубликовано: 1 год назад
  • System Design Concepts Course and Interview Prep 1 год назад
    System Design Concepts Course and Interview Prep
    Опубликовано: 1 год назад
  • Даулет Жангузин, NVIDIA, Groq, Cohere, Lyft, Google - Как пишут код лучшие кодеры Кремниевой Долины? 2 недели назад
    Даулет Жангузин, NVIDIA, Groq, Cohere, Lyft, Google - Как пишут код лучшие кодеры Кремниевой Долины?
    Опубликовано: 2 недели назад
  • How to Build Endurance | Huberman Lab Essentials 9 месяцев назад
    How to Build Endurance | Huberman Lab Essentials
    Опубликовано: 9 месяцев назад
  • Think Fast, Talk Smart: Communication Techniques 11 лет назад
    Think Fast, Talk Smart: Communication Techniques
    Опубликовано: 11 лет назад
  • LambdaNetworks: Modeling long-range Interactions without Attention (Paper Explained) 5 лет назад
    LambdaNetworks: Modeling long-range Interactions without Attention (Paper Explained)
    Опубликовано: 5 лет назад
  • Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение 8 лет назад
    Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение
    Опубликовано: 8 лет назад
  • Что ошибочно пишут в книгах об ИИ [Двойной спуск] 3 месяца назад
    Что ошибочно пишут в книгах об ИИ [Двойной спуск]
    Опубликовано: 3 месяца назад
  • The Most Misunderstood Concept in Physics 2 года назад
    The Most Misunderstood Concept in Physics
    Опубликовано: 2 года назад
  • Visualizing transformers and attention | Talk for TNG Big Tech Day '24 1 год назад
    Visualizing transformers and attention | Talk for TNG Big Tech Day '24
    Опубликовано: 1 год назад
  • Think Faster, Talk Smarter with Matt Abrahams 2 года назад
    Think Faster, Talk Smarter with Matt Abrahams
    Опубликовано: 2 года назад
  • Yann LeCun - Self-Supervised Learning: The Dark Matter of Intelligence (FAIR Blog Post Explained) 4 года назад
    Yann LeCun - Self-Supervised Learning: The Dark Matter of Intelligence (FAIR Blog Post Explained)
    Опубликовано: 4 года назад
  • Самая сложная модель из тех, что мы реально понимаем 1 месяц назад
    Самая сложная модель из тех, что мы реально понимаем
    Опубликовано: 1 месяц назад
  • ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию? 2 месяца назад
    ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию?
    Опубликовано: 2 месяца назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5