• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Kartik Chandra / Audrey Xie: "Gradient Descent: The Ultimate Optimizer" скачать в хорошем качестве

Kartik Chandra / Audrey Xie: "Gradient Descent: The Ultimate Optimizer" 2 года назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Kartik Chandra / Audrey Xie:
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Kartik Chandra / Audrey Xie: "Gradient Descent: The Ultimate Optimizer" в качестве 4k

У нас вы можете посмотреть бесплатно Kartik Chandra / Audrey Xie: "Gradient Descent: The Ultimate Optimizer" или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Kartik Chandra / Audrey Xie: "Gradient Descent: The Ultimate Optimizer" в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Kartik Chandra / Audrey Xie: "Gradient Descent: The Ultimate Optimizer"

Title: Gradient Descent: The Ultimate Optimizer Abstract: Working with any gradient-based machine learning algorithm involves the tedious task of tuning the optimizer's hyperparameters, such as its step size. Recent work has shown how the step size can itself be optimized alongside the model parameters by manually deriving expressions for "hypergradients" ahead of time. We show how to automatically compute hypergradients with a simple and elegant modification to backpropagation. This allows us to easily apply the method to other optimizers and hyperparameters (e.g. momentum coefficients). We can even recursively apply the method to its own hyper-hyperparameters, and so on ad infinitum. As these towers of optimizers grow taller, they become less sensitive to the initial choice of hyperparameters. We present experiments validating this for MLPs, CNNs, and RNNs. Finally, we provide a simple PyTorch implementation of this algorithm. Speaker: Kartik Chandra (https://cs.stanford.edu/~kach/) Audrey Xie (https://0a.ax/) Paper: https://arxiv.org/pdf/1909.13371.pdf

Comments
  • TabArena: A Living Benchmark for Machine Learning on Tabular Data 6 месяцев назад
    TabArena: A Living Benchmark for Machine Learning on Tabular Data
    Опубликовано: 6 месяцев назад
  • Accurate predictions on small data (and time series) with the tabular foundation model TabPFN 11 месяцев назад
    Accurate predictions on small data (and time series) with the tabular foundation model TabPFN
    Опубликовано: 11 месяцев назад
  • A LLM Evolutionary Algorithm for Automatically Generating Bayesian Optimization Algorithms 5 месяцев назад
    A LLM Evolutionary Algorithm for Automatically Generating Bayesian Optimization Algorithms
    Опубликовано: 5 месяцев назад
  • Unlocking State-Tracking in Linear RNNs Through Negative Eigenvalues 1 год назад
    Unlocking State-Tracking in Linear RNNs Through Negative Eigenvalues
    Опубликовано: 1 год назад
  • Reshuffling Resampling Splits Can Improve Generalization of Hyperparameter Optimization 10 месяцев назад
    Reshuffling Resampling Splits Can Improve Generalization of Hyperparameter Optimization
    Опубликовано: 10 месяцев назад
  • Scaling Exponents Across Parameterizations and Optimizers 1 год назад
    Scaling Exponents Across Parameterizations and Optimizers
    Опубликовано: 1 год назад
  • Accelerating Bayesian Inference and Data Acquisition via Amortization 3 месяца назад
    Accelerating Bayesian Inference and Data Acquisition via Amortization
    Опубликовано: 3 месяца назад
  • carps: A Framework for Comparing N Hyperparameter Optimizers on M Benchmarks 3 месяца назад
    carps: A Framework for Comparing N Hyperparameter Optimizers on M Benchmarks
    Опубликовано: 3 месяца назад
  • AutoML in the Age of Structured Foundation Models 9 месяцев назад
    AutoML in the Age of Structured Foundation Models
    Опубликовано: 9 месяцев назад
  • Scaling up Test-Time Compute with Latent Reasoning: A Recurrent Depth Approach 10 месяцев назад
    Scaling up Test-Time Compute with Latent Reasoning: A Recurrent Depth Approach
    Опубликовано: 10 месяцев назад
  • Do-PFN: In-Context Learning for Causal Effect Estimation 2 месяца назад
    Do-PFN: In-Context Learning for Causal Effect Estimation
    Опубликовано: 2 месяца назад
  • Multi-Objective AutoML: Towards Accurate and Robust models 3 месяца назад
    Multi-Objective AutoML: Towards Accurate and Robust models
    Опубликовано: 3 месяца назад
  • Hyperband-based Bayesian Optimization for Efficient Black-box Prompt Selection 7 месяцев назад
    Hyperband-based Bayesian Optimization for Efficient Black-box Prompt Selection
    Опубликовано: 7 месяцев назад
  • ShinkaEvolve: На пути к открытой и эффективной с точки зрения использования примеров эволюции про... 1 месяц назад
    ShinkaEvolve: На пути к открытой и эффективной с точки зрения использования примеров эволюции про...
    Опубликовано: 1 месяц назад
  • Chronos: Time series forecasting in the age of pretrained models 11 месяцев назад
    Chronos: Time series forecasting in the age of pretrained models
    Опубликовано: 11 месяцев назад
  • Stop Guessing, Start Discovering Trade-offs in Your ML Models 2 дня назад
    Stop Guessing, Start Discovering Trade-offs in Your ML Models
    Опубликовано: 2 дня назад
  • Understanding High-Dimensional Bayesian Optimization 8 месяцев назад
    Understanding High-Dimensional Bayesian Optimization
    Опубликовано: 8 месяцев назад
  • Tuning LLM Judge Design Decisions for 1/1000 of the Cost 7 месяцев назад
    Tuning LLM Judge Design Decisions for 1/1000 of the Cost
    Опубликовано: 7 месяцев назад
  • Benchmarking Beyond Statistics: Data-Driven Footprints for Explainable Black-Box Optimization 2 месяца назад
    Benchmarking Beyond Statistics: Data-Driven Footprints for Explainable Black-Box Optimization
    Опубликовано: 2 месяца назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5