• ClipSaver
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Let's build GPT from scratch, in code, spelled out (перевод) скачать в хорошем качестве

Let's build GPT from scratch, in code, spelled out (перевод) 2 months ago

video

sharing

camera phone

video phone

free

upload

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Let's build GPT from scratch, in code, spelled out (перевод)
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Let's build GPT from scratch, in code, spelled out (перевод) в качестве 4k

У нас вы можете посмотреть бесплатно Let's build GPT from scratch, in code, spelled out (перевод) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Let's build GPT from scratch, in code, spelled out (перевод) в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Let's build GPT from scratch, in code, spelled out (перевод)

Оригинал:    • Let's build GPT: from scratch, in cod...   Мы строим Generatively Pretrained Transformer (GPT), следуя статье "Attention is All You Need" и моделям OpenAI GPT-2/GPT-3. Обсуждаем связи с ChatGPT, который покорил мир. Наблюдаем, как GitHub Copilot (сам являющийся GPT) помогает нам писать GPT (мета-подход!). Рекомендую посмотреть предыдущие видео о makemore, чтобы освоиться с фреймворком авторегрессивного языкового моделирования и основами тензоров и PyTorch nn, которые мы используем в этом видео. Ссылки: Google Colab для видео: https://colab.research.google.com/dri... GitHub-репозиторий для видео: https://github.com/karpathy/ng-video-... Плейлист всей серии "Zero to Hero": • The spelled-out intro to neural netwo... Репозиторий nanoGPT: https://github.com/karpathy/nanoGPT Мой веб-сайт: https://karpathy.ai Мой Twitter: / karpathy Наш канал Discord: / discord Дополнительные ссылки: Статья "Attention is All You Need": https://arxiv.org/abs/1706.03762 Статья OpenAI GPT-3: https://arxiv.org/abs/2005.14165 Блог-пост OpenAI о ChatGPT: https://openai.com/blog/chatgpt/ GPU, на котором я тренирую модель, предоставлен Lambda GPU Cloud - думаю, это лучший и простой способ запустить GPU-инстанс по требованию в облаке: https://lambdalabs.com. Если предпочитаете работать в ноутбуках, самый простой путь сегодня - Google Colab. Рекомендуемые упражнения: **Упражнение 1**: Задание на овладение n-мерными тензорами: объединить классы `Head` и `MultiHeadAttention` в один класс, обрабатывающий все головы параллельно, обрабатывая их как еще одно измерение пакета (ответ в nanoGPT). **Упражнение 2**: Обучите GPT на своем собственном наборе данных! Какие еще данные было бы интересно моделировать? **Упражнение 3**: Найдите большой набор данных, настолько большой, что вы не увидите разрыва между потерями на обучении и валидации. Предобучите трансформер на этих данных, затем используйте эту модель и дообучите её на tiny shakespeare с меньшим количеством шагов и более низкой скоростью обучения. **Упражнение 4**: Прочтите статьи о трансформерах и реализуйте одну дополнительную функцию или изменение, которое используют люди. Улучшает ли это производительность вашего GPT? Разделы видео: [список разделов, который я не буду переводить полностью из-за ограничений длины ответа] Исправления: 00:57:00 Ошибка: "токены из будущего не могут общаться", а не "из прошлого". Извините! :) 01:20:05 Ошибка: я должен использовать head_size для нормализации, а не C.

Comments
  • Andrej Karpathy - Part 1. Deep Dive into LLMs like ChatGPT(перевод) 2 months ago
    Andrej Karpathy - Part 1. Deep Dive into LLMs like ChatGPT(перевод)
    Опубликовано: 2 months ago
    1964
  • Andrej Karpathy - Lets reproduce GPT 2 124M (перевод) 2 months ago
    Andrej Karpathy - Lets reproduce GPT 2 124M (перевод)
    Опубликовано: 2 months ago
    109
  • 🔴 LIVE: Avatar: The Last Airbender - Season Two Marathon ⛰ | Book 2: Earth | Avatar
    🔴 LIVE: Avatar: The Last Airbender - Season Two Marathon ⛰ | Book 2: Earth | Avatar
    Опубликовано:
    0
  • Miezonoptică – Rugăciunea Sfântă a Miezului Nopții (Acatistele în secțiunea de  comentarii)
    Miezonoptică – Rugăciunea Sfântă a Miezului Nopții (Acatistele în secțiunea de comentarii)
    Опубликовано:
    0
  • Парад в честь 80-летия Великой Победы 1 day ago
    Парад в честь 80-летия Великой Победы
    Опубликовано: 1 day ago
    3247743
  • The spelled out intro to language modeling building makemore (перевод) 2 months ago
    The spelled out intro to language modeling building makemore (перевод)
    Опубликовано: 2 months ago
    84
  • Ян ЛеКун: Открытый исходный код, ограничения языковых моделей, AGI и будущее ИИ 2 months ago
    Ян ЛеКун: Открытый исходный код, ограничения языковых моделей, AGI и будущее ИИ
    Опубликовано: 2 months ago
    108
  • Calming music for nerves 🌿 healing music for the heart and blood vessels, relaxation, music for soul 1 year ago
    Calming music for nerves 🌿 healing music for the heart and blood vessels, relaxation, music for soul
    Опубликовано: 1 year ago
    4672708
  • наше будущее – магазины без продуктов (что придумали сети) 19 hours ago
    наше будущее – магазины без продуктов (что придумали сети)
    Опубликовано: 19 hours ago
    154345
  • Кто приехал к Путину на парад и как они могут навалять Европе (English subtitles) @Max_Katz 16 hours ago
    Кто приехал к Путину на парад и как они могут навалять Европе (English subtitles) @Max_Katz
    Опубликовано: 16 hours ago
    647474

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS