У нас вы можете посмотреть бесплатно Выбор признаков и уменьшение размерности — стало проще! или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Снижение размерности — важная концепция в машинном обучении, используемая для уменьшения количества признаков в наборе данных при сохранении наиболее полезной информации. Это помогает улучшить производительность модели, снизить вычислительные затраты и удалить избыточные или нерелевантные признаки. В этом видео мы подробно объясняем два основных подхода к снижению размерности: отбор признаков и извлечение признаков. Вы поймете методы отбора признаков, такие как критерий хи-квадрат, взаимная информация, рекурсивное исключение признаков и LASSO-регуляризация, а также методы извлечения признаков, такие как анализ главных компонентов (PCA) и линейный дискриминантный анализ (LDA). Учебное пособие фокусируется на интуитивном понимании наряду с математическими аспектами, что делает его полезным как для начинающих, так и для опытных пользователей. -- Ссылка на Github: https://github.com/edumentordeepti/Fo... --- Глава/Временные метки: 00:00 - вступление 01:19 - что такое снижение размерности? 07:45 - Какие существуют методы уменьшения размерности? 08:52 - В чём преимущества уменьшения размерности? 09:45 - Что такое отбор признаков? 13:28 - Какие существуют методы отбора признаков? 14:10 - Что такое метод фильтрации? 17:05 - Что такое пороговое значение дисперсии? 19:28 - Что такое коэффициент корреляции? 22:08 - Что такое критерий хи-квадрат? 24:40 - Что такое взаимная информация (MI) и информационный выигрыш? 27:30 - Что такое ANOVA (дисперсионный анализ)? 29:03 - Что такое Relief/Relief? 32:32 - Что такое метод обертки? 35:12 - Что такое прямой отбор? 35:53 - Что такое обратное исключение? 36:30 - Что такое RFE (рекурсивное исключение признаков)? 37:40 - Что такое встроенный метод? 40:00 - Каковы преимущества и недостатки выбора признаков? 44:00 - заключение --- Ссылка на канал: / @edumentordeepti Полный курс ИИ и машинного обучения: • AI & Machine Learning Full Course Машинное обучение: • Machine Learning for AI Наука о данных: • Data Science For AI Python для ИИ: • Python for AI and Machine Learning --- ✉️ Напишите нам – edofficialac@gmail.com --- #СнижениеИзмеренности #ВыборПризнаков #ИзвлечениеПризнаков #МашинноеОбучение #НаукаОДанные #ИскусственныйИнтеллект #PCA #LDA #ИнженерноеОбразованиеПризнаков #ВажностьПризнаков #ПредварительнаяОбработкаДанные #КонцепцииМашинногоОбучения #АлгоритмыМашинногоОбучения #СтатистикаДляНаукиОДанные #АнализДанные #PythonДляНаукиОДанные #УчебникПоМашинномуОбучению #ИзучениеМашинногоОбучения #УчебникПоНаукеОДанные #ИИДляНачинающих #ГлубокоеОбучение #СпециалистПоДанные #ИИ #ТехническоеОбразование #edumentordeepti #edumentor #deepti --- ОТКАЗ ОТ ОТВЕТСТВЕННОСТИ: Это видео создано исключительно в образовательных целях. Мы не обладаем никакими авторскими правами, весь предоставленный код и ресурсы предназначены только для обучения, и все права принадлежат их соответствующим владельцам. Пожалуйста, соблюдайте лицензии и условия использования при внедрении в ваши проекты. Использование некоммерческое, и мы не получаем от этого никакой прибыли. Единственная цель этого видео — «Учиться и расти...» вместе в области искусственного интеллекта и машинного обучения.