• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

R+AI Conference: Szilard Pafka: Gradient Boosting Machines (GBMs) in the Age of LLMs and ChatGPT скачать в хорошем качестве

R+AI Conference: Szilard Pafka: Gradient Boosting Machines (GBMs) in the Age of LLMs and ChatGPT 1 месяц назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
R+AI Conference: Szilard Pafka: Gradient Boosting Machines (GBMs) in the Age of LLMs and ChatGPT
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: R+AI Conference: Szilard Pafka: Gradient Boosting Machines (GBMs) in the Age of LLMs and ChatGPT в качестве 4k

У нас вы можете посмотреть бесплатно R+AI Conference: Szilard Pafka: Gradient Boosting Machines (GBMs) in the Age of LLMs and ChatGPT или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон R+AI Conference: Szilard Pafka: Gradient Boosting Machines (GBMs) in the Age of LLMs and ChatGPT в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



R+AI Conference: Szilard Pafka: Gradient Boosting Machines (GBMs) in the Age of LLMs and ChatGPT

Gradient Boosting Machines (GBMs) in the Age of LLMs and ChatGPT Szilard Pafka, PhD Chief Scientist, Epoch Gradient Boosting Machines (GBMs) have been considered (for more than a decade) as the best machine learning algorithm (in terms of highest accuracy) for supervised learning/predictive analytics with structured/tabular data (widely encountered in business applications). They have been widely used in practice and have several very popular implementations (XGBoost, LightGBM, h2o, CatBoost etc.) as R packages. Are they still relevant in the age of Large Language Models (LLMs) and ChatGPT? This talk will tackle this very question and will also present updates to the author's GBM-perf benchmark (available on GitHub) including the newest results of training XGBoost and LightGBM in R on the latest available cloud hardware. Bio: Szilard studied Physics in the 90s and obtained a PhD by using statistical methods to analyze the risk of financial portfolios. He worked in finance, then in 2006 he moved to become the Chief Scientist of a tech company in Santa Monica, California doing everything data (analysis, modeling, data visualization, machine learning, data infrastructure etc). He was the founder/organizer of several meetups in the Los Angeles area (R, data science etc) and the data science community website datascience.la for more than a decade until he relocated to Texas in 2021. He is the author of a well-known machine learning benchmark on github (1000+ stars), a frequent speaker at conferences (keynote/invited at KDD, R-finance, Crunch, eRum and contributed at useR!, PAW, EARL, H2O World, Data Science Pop-up, Dataworks Summit etc.), and he has developed and taught graduate data science and machine learning courses as a visiting professor at two universities (UCLA in California and CEU in Europe). LinkedIn:   / szilard   Twitter:   / szilardpafka   Github: https://github.com/szilard/

Comments
  • Градиентное усиление: серебряная пуля науки о данных 4 года назад
    Градиентное усиление: серебряная пуля науки о данных
    Опубликовано: 4 года назад
  • LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры 1 год назад
    LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры
    Опубликовано: 1 год назад
  • Екатерина Шульман: как изменилось отношение россиян к войне в 2025 году 14 часов назад
    Екатерина Шульман: как изменилось отношение россиян к войне в 2025 году
    Опубликовано: 14 часов назад
  • Как производятся микрочипы? 🖥️🛠️ Этапы производства процессоров 1 год назад
    Как производятся микрочипы? 🖥️🛠️ Этапы производства процессоров
    Опубликовано: 1 год назад
  • The Future of Veritasium 4 дня назад
    The Future of Veritasium
    Опубликовано: 4 дня назад
  • Управление поведением LLM без тонкой настройки 11 дней назад
    Управление поведением LLM без тонкой настройки
    Опубликовано: 11 дней назад
  • Как работала машина 4 года назад
    Как работала машина "Энигма"?
    Опубликовано: 4 года назад
  • Краткое объяснение больших языковых моделей 1 год назад
    Краткое объяснение больших языковых моделей
    Опубликовано: 1 год назад
  • Ваш браузер знает о вас все и сливает данные: как защититься? 1 год назад
    Ваш браузер знает о вас все и сливает данные: как защититься?
    Опубликовано: 1 год назад
  • Внутри полупроводникового завода Micron Taiwan | Мегафабрики Тайваня, эпизод 1 1 год назад
    Внутри полупроводникового завода Micron Taiwan | Мегафабрики Тайваня, эпизод 1
    Опубликовано: 1 год назад
  • Компьютерное зрение в 2025-м / Роман Исаченко 2 дня назад
    Компьютерное зрение в 2025-м / Роман Исаченко
    Опубликовано: 2 дня назад
  • Что такое стек ИИ? Магистратура LLM, RAG и аппаратное обеспечение ИИ 1 месяц назад
    Что такое стек ИИ? Магистратура LLM, RAG и аппаратное обеспечение ИИ
    Опубликовано: 1 месяц назад
  • Как сжимаются изображения? [46 МБ ↘↘ 4,07 МБ] JPEG в деталях 4 года назад
    Как сжимаются изображения? [46 МБ ↘↘ 4,07 МБ] JPEG в деталях
    Опубликовано: 4 года назад
  • LA Data Science Meetup, Nov. 10, 2020 - Talk #1 - Szilard Pafka: GBM Benchmarks 5 лет назад
    LA Data Science Meetup, Nov. 10, 2020 - Talk #1 - Szilard Pafka: GBM Benchmarks
    Опубликовано: 5 лет назад
  • Но что такое нейронная сеть? | Глава 1. Глубокое обучение 8 лет назад
    Но что такое нейронная сеть? | Глава 1. Глубокое обучение
    Опубликовано: 8 лет назад
  • Как LLM могут хранить факты | Глава 7, Глубокое обучение 1 год назад
    Как LLM могут хранить факты | Глава 7, Глубокое обучение
    Опубликовано: 1 год назад
  • Вейвлеты: математический микроскоп 3 года назад
    Вейвлеты: математический микроскоп
    Опубликовано: 3 года назад
  • Тайны полифонии Баха — как работает гениальный мозг? 2 месяца назад
    Тайны полифонии Баха — как работает гениальный мозг?
    Опубликовано: 2 месяца назад
  • LA Data Science Meetup, Nov. 10, 2020 - Talk #2 - Hyunsu Cho: The State of XGBoost 5 лет назад
    LA Data Science Meetup, Nov. 10, 2020 - Talk #2 - Hyunsu Cho: The State of XGBoost
    Опубликовано: 5 лет назад
  • Обучение с подкреплением для агентов — Уилл Браун, исследователь машинного обучения в Morgan Stanley 9 месяцев назад
    Обучение с подкреплением для агентов — Уилл Браун, исследователь машинного обучения в Morgan Stanley
    Опубликовано: 9 месяцев назад

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5