• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Anna Veronika Dorogush: Mastering gradient boosting with CatBoost | PyData London 2019 скачать в хорошем качестве

Anna Veronika Dorogush: Mastering gradient boosting with CatBoost | PyData London 2019 6 лет назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Anna Veronika Dorogush: Mastering gradient boosting with CatBoost | PyData London 2019
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Anna Veronika Dorogush: Mastering gradient boosting with CatBoost | PyData London 2019 в качестве 4k

У нас вы можете посмотреть бесплатно Anna Veronika Dorogush: Mastering gradient boosting with CatBoost | PyData London 2019 или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Anna Veronika Dorogush: Mastering gradient boosting with CatBoost | PyData London 2019 в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Anna Veronika Dorogush: Mastering gradient boosting with CatBoost | PyData London 2019

Gradient boosting is a powerful machine-learning technique that achieves state-of-the-art results in a variety of practical tasks. This tutorial will explain details of using gradient boosting in practice, we will solve a classification problem using the popular GBDT library CatBoost. www.pydata.org PyData is an educational program of NumFOCUS, a 501(c)3 non-profit organization in the United States. PyData provides a forum for the international community of users and developers of data analysis tools to share ideas and learn from each other. The global PyData network promotes discussion of best practices, new approaches, and emerging technologies for data management, processing, analytics, and visualization. PyData communities approach data science using many languages, including (but not limited to) Python, Julia, and R. PyData conferences aim to be accessible and community-driven, with novice to advanced level presentations. PyData tutorials and talks bring attendees the latest project features along with cutting-edge use cases. 0:00 - Introduction 1:49 - Intro to CatBoost 2:08 - Overview of the Presentation 2:39 - Intro to Gradient Boosting 6:08 - Numerical and Categorical Data with CatBoost 7:26 - Advantages of CatBoost 9:00 - Library Comparison (Quality) 9:45 - Speed 10:11 - Benchmarking (CPU & GPU) 11:55 - CPU vs GPU 12:50 - Prediction Time 13:24 - Tutorial 15:15 - Problem Statement 15:38 - CatBoost Library (Imports and related issues) 16:22 - Reading and Intro to the Data 18:17 - Exploring the data 19:36 - Training the Model with default parameters 22:16 - Creating the Pool Object 23:12 - Splitting the data (Train & Validation) 24:16 - Selecting the objective function 25:11 - STDOUT of training 28:32 - Plotting metrics while training 30:33 - Model Comparison (plotting after training) 32:39 - Finding the best model 35:05 - Cross-Validation 41:30 - Grid Search 44:40 - Overfitting Detector 49:18 - Overfitting Detector with eval metric 51:31 - Model Predictions 57:10 - Select Decision Boundary 1:01:04 - Model Evaluation (new dataset) 1:03:06 - Feature Importance 1:03:37 - Prediction Values Change 1:04:50 - Loss Function Change 1:07:49 - Shap Values 1:16:05 - Snapshotting 1:17:45 - Saving the Model 1:18:36 - Hyperparameters Tuning 1:23:07 - Speeding up Training and Reducing Model Size 1:23:35 - Additional Details about CatBoost Community 1:25:50 - Future Scope of CatBoost 1:26:22 - Questions and Suggestions S/o to https://github.com/theProcrastinatr for the video timestamps! Want to help add timestamps to our YouTube videos to help with discoverability? Find out more here: https://github.com/numfocus/YouTubeVi...

Comments
  • Dr. Egor Kraev: Choose the right neural generative model for your problem | PyData London 2019 6 лет назад
    Dr. Egor Kraev: Choose the right neural generative model for your problem | PyData London 2019
    Опубликовано: 6 лет назад
  • Как мы победили с помощью CatBoost и AutoML — Александр Лелюк, Петр Гуринов 6 лет назад
    Как мы победили с помощью CatBoost и AutoML — Александр Лелюк, Петр Гуринов
    Опубликовано: 6 лет назад
  • Градиентный Бустинг: самый частый вопрос на собеседовании на дата саентиста 5 лет назад
    Градиентный Бустинг: самый частый вопрос на собеседовании на дата саентиста
    Опубликовано: 5 лет назад
  • Maciej Arciuch, Karol Grzegorczyk: Embeddings! Embeddings everywhere! | PyData London 2019 6 лет назад
    Maciej Arciuch, Karol Grzegorczyk: Embeddings! Embeddings everywhere! | PyData London 2019
    Опубликовано: 6 лет назад
  • Артем Селезнев - Выбираем CatBoost или XGBoost для поставленной задачи  - DataStart.ru 6 лет назад
    Артем Селезнев - Выбираем CatBoost или XGBoost для поставленной задачи - DataStart.ru
    Опубликовано: 6 лет назад
  • «Я не вижу проблем быть женщиной-фаундером». Секреты самого горячего AI-стартапа с русскими корнями 8 месяцев назад
    «Я не вижу проблем быть женщиной-фаундером». Секреты самого горячего AI-стартапа с русскими корнями
    Опубликовано: 8 месяцев назад
  • Jan van der Vegt: A walk through the isolation forest | PyData Amsterdam 2019 6 лет назад
    Jan van der Vegt: A walk through the isolation forest | PyData Amsterdam 2019
    Опубликовано: 6 лет назад
  • Градиентный бустинг без формул.Часть 2.  Какой бустинг лучше? XgBoost vs LightGBM vs CatBoost 5 лет назад
    Градиентный бустинг без формул.Часть 2. Какой бустинг лучше? XgBoost vs LightGBM vs CatBoost
    Опубликовано: 5 лет назад
  • CatBoost - градиентный бустинг от Яндекса 7 лет назад
    CatBoost - градиентный бустинг от Яндекса
    Опубликовано: 7 лет назад
  • Машинное обучение. Семинар 7. Shap values 5 лет назад
    Машинное обучение. Семинар 7. Shap values
    Опубликовано: 5 лет назад
  • Анна-Вероника Дорогуш - Туториал от команды CatBoost (практическая часть) - DataStart.ru 6 лет назад
    Анна-Вероника Дорогуш - Туториал от команды CatBoost (практическая часть) - DataStart.ru
    Опубликовано: 6 лет назад
  • CatBoost 101: Categorical Gradient Boosting Explained 1 год назад
    CatBoost 101: Categorical Gradient Boosting Explained
    Опубликовано: 1 год назад
  • Разрушительный спад качества, уничтожающий репутацию Omega 3 дня назад
    Разрушительный спад качества, уничтожающий репутацию Omega
    Опубликовано: 3 дня назад
  • Разместил ВАКАНСИЮ на FRONTEND разработчика. В шоке от откликов и резюме. Выводы 2 дня назад
    Разместил ВАКАНСИЮ на FRONTEND разработчика. В шоке от откликов и резюме. Выводы
    Опубликовано: 2 дня назад
  • Зачем нужна топология? 2 недели назад
    Зачем нужна топология?
    Опубликовано: 2 недели назад
  • Gianluca Campanella: The unreasonable effectiveness of feature hashing | PyData London 2019 6 лет назад
    Gianluca Campanella: The unreasonable effectiveness of feature hashing | PyData London 2019
    Опубликовано: 6 лет назад
  • Pedro Tabacof - Unlocking the Power of Gradient-Boosted Trees (using LightGBM) | PyData London 2022 3 года назад
    Pedro Tabacof - Unlocking the Power of Gradient-Boosted Trees (using LightGBM) | PyData London 2022
    Опубликовано: 3 года назад
  • Two Effective Algorithms for Time Series Forecasting 7 лет назад
    Two Effective Algorithms for Time Series Forecasting
    Опубликовано: 7 лет назад
  • Градиентное усиление: серебряная пуля науки о данных 4 года назад
    Градиентное усиление: серебряная пуля науки о данных
    Опубликовано: 4 года назад
  • Anna Veronika Dorogush - CatBoost - the new generation of Gradient Boosting 7 лет назад
    Anna Veronika Dorogush - CatBoost - the new generation of Gradient Boosting
    Опубликовано: 7 лет назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5