• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

BFGS & L-BFGS: The Algorithms Behind Modern Machine Learning | Machine Learning | Optimisation скачать в хорошем качестве

BFGS & L-BFGS: The Algorithms Behind Modern Machine Learning | Machine Learning | Optimisation 3 недели назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
BFGS & L-BFGS: The Algorithms Behind Modern Machine Learning | Machine Learning | Optimisation
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: BFGS & L-BFGS: The Algorithms Behind Modern Machine Learning | Machine Learning | Optimisation в качестве 4k

У нас вы можете посмотреть бесплатно BFGS & L-BFGS: The Algorithms Behind Modern Machine Learning | Machine Learning | Optimisation или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон BFGS & L-BFGS: The Algorithms Behind Modern Machine Learning | Machine Learning | Optimisation в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



BFGS & L-BFGS: The Algorithms Behind Modern Machine Learning | Machine Learning | Optimisation

In this video, we dive deep into BFGS and L-BFGS - the quasi-Newton optimization algorithms that power most modern machine learning libraries. If you've ever wondered why PyTorch and SciPy use L-BFGS instead of pure gradient descent or Newton's method, this is your answer. WHAT YOU'LL LEARN: Why gradient descent fails for ill-conditioned problems How second-order methods use curvature information The computational bottleneck of Newton's method (O(n³) complexity!) How BFGS approximates the inverse Hessian without computing it Why L-BFGS only needs O(mn) memory instead of O(n²) The elegant two-loop recursion algorithm When to use GD vs BFGS vs L-BFGS in practice TECHNICAL DETAILS: BFGS (Broyden-Fletcher-Goldfarb-Shanno) builds an approximation of the inverse Hessian matrix iteratively using only gradient information. This gives you superlinear convergence without the O(n³) cost of computing and inverting the full Hessian. L-BFGS extends this by storing only the last m vector pairs (typically m=3-20), reducing memory from O(n²) to O(mn). For a neural network with 1 million parameters, this is the difference between 8 terabytes and 80 megabytes. The two-loop recursion is an elegant algorithm that computes the search direction in O(mn) time using only stored history - no matrix storage required. KEY CONCEPTS COVERED: Ill-conditioned optimization problems Hessian matrix and curvature Quasi-Newton methods Secant equation and rank-two updates Limited-memory approximations Computational complexity analysis WHERE YOU'LL SEE THESE ALGORITHMS: scipy.optimize.minimize(method='L-BFGS-B') PyTorch: torch.optim.LBFGS TensorFlow's L-BFGS optimizer scikit-learn's LogisticRegression (solver='lbfgs') Maximum likelihood estimation in statistics Parameter fitting in scientific computing RELATED TOPICS: If you enjoyed this video, check out my series on optimization algorithms: Part 1: Gradient Descent Deep Dive Part 2: Newton's Method and Second-Order Optimization Part 3: BFGS and L-BFGS (this video) Part 4: Conjugate Gradient Methods (coming soon) WHO IS THIS FOR? This video is designed for: Machine learning engineers wondering what's under the hood PhD students in computational science Anyone who's seen "method='LBFGS'" and thought "what is that?" Optimization enthusiasts who want to understand modern algorithms You should have basic calculus knowledge (gradients, derivatives) and some familiarity with optimization. If you know what gradient descent is, you're ready for this video. PERFORMANCE COMPARISON: For a typical ML problem with n=100,000 parameters: Gradient Descent: ~50,000 iterations, O(n) memory BFGS: ~500 iterations, O(n²) memory = 80GB (impractical!) L-BFGS: ~500 iterations, O(mn) memory = 40MB (perfect!) WHY THIS MATTERS: L-BFGS is the secret weapon of computational science. When you fit a logistic regression model in scikit-learn, train certain neural networks, or run maximum likelihood estimation, there's a good chance L-BFGS is doing the heavy lifting. Understanding how it works makes you a better ML engineer and computational scientist. CONNECT WITH ME: 🔗 GitHub: https://github.com/psychedelic2007 🔗 LinkedIn: / satyam-sangeet-a8a604119 🔗 Twitter: https://x.com/satyam_san20 💬 Personal Page: https://psychedelic2007.github.io/ TOOLS: Animations created with Manim Community Edition Simulations in Python (NumPy, Matplotlib, SciPy) If you found this helpful, please like, subscribe, and share with anyone learning optimization or ML! Questions? Drop them in the comments - I read and respond to every one. #MachineLearning #Optimization #BFGS #LBFGS #DeepLearning #ComputationalScience #Algorithm #Python #DataScience #AI #NumericalMethods #QuasiNewton #GradientDescent #PyTorch #TensorFlow #ScikitLearn

Comments
  • This is How AI Actually Learns – Gradient Descent Visualized | Machine Learning Explained 2 месяца назад
    This is How AI Actually Learns – Gradient Descent Visualized | Machine Learning Explained
    Опубликовано: 2 месяца назад
  • Visualizing transformers and attention | Talk for TNG Big Tech Day '24 1 год назад
    Visualizing transformers and attention | Talk for TNG Big Tech Day '24
    Опубликовано: 1 год назад
  • Новая страна вступила в войну? / Первый удар нанесён 3 часа назад
    Новая страна вступила в войну? / Первый удар нанесён
    Опубликовано: 3 часа назад
  • Визуализация скрытого пространства: PCA, t-SNE, UMAP | Глубокое обучение с анимацией 1 год назад
    Визуализация скрытого пространства: PCA, t-SNE, UMAP | Глубокое обучение с анимацией
    Опубликовано: 1 год назад
  • The Algorithm That Breaks Gradient Descent | Newton's Method Explained 2 месяца назад
    The Algorithm That Breaks Gradient Descent | Newton's Method Explained
    Опубликовано: 2 месяца назад
  • 🧪🧪🧪🧪Как увидеть гиперпространство (4-е измерение) 2 года назад
    🧪🧪🧪🧪Как увидеть гиперпространство (4-е измерение)
    Опубликовано: 2 года назад
  • Role of Quantum Phenomena in Consciousness?? 5 лет назад
    Role of Quantum Phenomena in Consciousness??
    Опубликовано: 5 лет назад
  • Как происходит модернизация остаточных соединений [mHC] 1 месяц назад
    Как происходит модернизация остаточных соединений [mHC]
    Опубликовано: 1 месяц назад
  • Лучший документальный фильм про создание ИИ 4 недели назад
    Лучший документальный фильм про создание ИИ
    Опубликовано: 4 недели назад
  • Как внимание стало настолько эффективным [GQA/MLA/DSA] 2 месяца назад
    Как внимание стало настолько эффективным [GQA/MLA/DSA]
    Опубликовано: 2 месяца назад
  • SIR Model of Epidemic | Simulating COVID-19 model 5 лет назад
    SIR Model of Epidemic | Simulating COVID-19 model
    Опубликовано: 5 лет назад
  • Управление поведением LLM без тонкой настройки 1 месяц назад
    Управление поведением LLM без тонкой настройки
    Опубликовано: 1 месяц назад
  • Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение 1 год назад
    Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение
    Опубликовано: 1 год назад
  • Понимание GD&T 3 года назад
    Понимание GD&T
    Опубликовано: 3 года назад
  • Stop Learning Genetic Algorithms the Hard Way – Watch This First! | Genetic Algorithm | Python 3 месяца назад
    Stop Learning Genetic Algorithms the Hard Way – Watch This First! | Genetic Algorithm | Python
    Опубликовано: 3 месяца назад
  • Как сжимаются изображения? [46 МБ ↘↘ 4,07 МБ] JPEG в деталях 4 года назад
    Как сжимаются изображения? [46 МБ ↘↘ 4,07 МБ] JPEG в деталях
    Опубликовано: 4 года назад
  • Внимание — это всё, что вам нужно (Transformer) — объяснение модели (включая математику), вывод и... 2 года назад
    Внимание — это всё, что вам нужно (Transformer) — объяснение модели (включая математику), вывод и...
    Опубликовано: 2 года назад
  • Алгоритмы и структуры данных ФУНДАМЕНТАЛЬНЫЙ КУРС от А до Я. Графы, деревья, хеш таблицы и тд 1 месяц назад
    Алгоритмы и структуры данных ФУНДАМЕНТАЛЬНЫЙ КУРС от А до Я. Графы, деревья, хеш таблицы и тд
    Опубликовано: 1 месяц назад
  • Все, что вам нужно знать о теории управления 3 года назад
    Все, что вам нужно знать о теории управления
    Опубликовано: 3 года назад
  • Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение 8 лет назад
    Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение
    Опубликовано: 8 лет назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5