• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Простые глубокие нейронные сети для классификации текста скачать в хорошем качестве

Простые глубокие нейронные сети для классификации текста 7 лет назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Простые глубокие нейронные сети для классификации текста
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Простые глубокие нейронные сети для классификации текста в качестве 4k

У нас вы можете посмотреть бесплатно Простые глубокие нейронные сети для классификации текста или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Простые глубокие нейронные сети для классификации текста в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Простые глубокие нейронные сети для классификации текста

Привет. В этом видео мы применим нейронные сети к тексту. Давайте сначала вспомним, что такое текст? Вы можете представить его как последовательность символов, слов или чего-то ещё. В этом видео мы продолжим рассматривать текст как последовательность слов или токенов. Давайте вспомним, как работает мешок слов. У вас есть каждое слово, каждое из которых уникально, в вашем наборе данных, есть столбец признаков. И вы фактически векторизуете каждое слово с помощью вектора, закодированного методом прямого кодирования, который представляет собой огромный вектор нулей, содержащий только одно ненулевое значение, которое находится в столбце, соответствующем этому конкретному слову. Итак, в этом примере у нас есть слова «очень, хорошо» и «фильм», и все они векторизованы независимо. И в этой ситуации, для реальных задач, у вас есть сотни тысяч столбцов. И как нам получить представление мешка слов? Вы видите, что мы можем суммировать все эти значения, все эти векторы, и получаем векторизацию мешка слов, которая теперь соответствует слову «очень, хорошо, фильм». Итак, было бы неплохо представить себе представление мешка слов как сумму разреженных векторов, кодированных методом прямого кодирования, соответствующих каждому конкретному слову. Хорошо, давайте перейдем к нейронной сети. И в отличие от разреженного способа, который мы видели в мешке слов, в нейронных сетях мы обычно предпочитаем плотное представление. Это означает, что мы можем заменить каждое слово плотным вектором, который гораздо короче. Он может иметь 300 значений, и теперь в этих векторах есть все действительно значимые элементы. Примером таких векторов являются вложения word2vec, которые являются предобученными вложениями, выполняемыми без учителя. И мы на самом деле углубимся в подробности word2vec в течение следующих двух недель. Но все, что нам нужно знать прямо сейчас, это то, что векторы word2vec обладают одним полезным свойством. Слова, имеющие схожий контекст с точки зрения соседних слов, как правило, имеют коллинеарные векторы, которые фактически указывают примерно в одном направлении. И это очень полезное свойство, которое мы будем использовать в дальнейшем. Итак, теперь мы можем заменить каждое слово плотным вектором из 300 действительных значений. Что нам делать дальше? Как нам получить дескриптор признаков для всего текста? Фактически, мы можем использовать тот же метод, что и для «мешка слов». Мы можем просто вычислить сумму этих векторов, и у нас получится представление, основанное на векторных представлениях word2vec для всего текста, как в очень хорошем фильме. И это лишь некоторые примеры того, как векторы word2vec действительно работают на практике. Они могут дать вам отличный базовый дескриптор, базовые признаки для вашего классификатора, и это действительно может работать довольно хорошо. Другой подход — создание нейронной сети на основе этих векторных представлений.

Comments

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5