У нас вы можете посмотреть бесплатно Метод градиентного спуска: лучше гор могут быть только горы… // «Machine Learning. Professional» или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Градиентный спуск – не просто строчка кода model.fit(). Это краеугольный камень, на котором держится почти все машинное обучение и глубокое обучение. Можно годами использовать библиотеки, не понимая, как и почему ваша модель находит решение, а главное – находит ли она лучшее из возможных? Без глубокого понимания градиентного спуска вы ходите по тонкому льду: не можете правильно диагностировать сходимость, подобрать скорость обучения или спасти модель от вечного блуждания в «долинах» локальных минимумов. 📍 Программа вебинара: За пределами черного ящика: Разберем, как алгоритм «изучает многомерный ландшафт» ошибок и находит путь к минимуму ошибки. Поймем, почему этот путь редко бывает прямым, и что такое осцилляции и «зигзаги» градиента. Скорость (шаг) обучения (Learning Rate): Узнаем, правильное управление этим параметром - главный ключ к успеху. Разберем сценарии и как найти золотую середину. Эволюция метода: От классического и стохастического градиентного спуска к их продвинутым «потомкам». Поймем, как они используют «инерцию» и адаптацию, чтобы стать быстрее и устойчивее. Примеры на Python: Увидим всё своими глазами! Разберем модельные примеры, где мы в реальном времени будем управлять параметрами и анализировать результаты. Ответы на ваши вопросы: Какие модификации метода градиентного спуска выбрать? Как понять, что модель сошлась, а не застряла? 👥 Кому будет полезно: Data scientist’ам, которые хотят заложить фундаментальное понимание того, как на самом деле «учатся» некоторые классические ML-модели и нейронные сети и, выйдя за рамки абстрактного model.fit(). Практикующим ML-инженерам, которые хотят осознанно настраивать процесс обучения, улучшать сходимость моделей и глубже диагностировать проблемы при тренировке. Всем, кто готовится к собеседованиям, где вопросы о градиентном спуске, его вариациях и тонкостях — обязательная классика и освежить знания по этому вопросу необходимо обязательно. Любознательным разработчикам и аналитикам, желающим понять философию итеративной оптимизации, которая лежит в основе не только ML, но и многих других прикладных задач. ✅ Что узнаете по итогам вебинара: Поймете философию и механику градиентного спуска: от вычисления производной до обновления весов модели. Научитесь осознанно выбирать и настраивать оптимизатор под конкретную задачу. Сможете диагностировать проблемы процесса обучения. Получите готовый код с примерами, который станет вашим мощным инструментом для интуитивного понимания сложных концепций. Присоединяйтесь, чтобы перестать воспринимать процесс обучения моделей как «черный ящик» и начать осознанно управлять путешествием по многомерным ландшафтам ошибок! «Machine Learning. Professional» - https://otus.pw/Oz9N/ Преподаватель: Алексей Кисляков - заведующий научной лабораторией Пройдите опрос по итогам мероприятия - https://otus.pw/09Jo/ Следите за новостями проекта: → VK: https://vk.com/otusru → Telegram: https://t.me/Otusjava → Хабр: https://otus.pw/S0nM/