У нас вы можете посмотреть бесплатно DeepSeek Engram: Мы неправильно разрабатывали программы магистратуры. или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
В этом видео я подробно рассматриваю новаторскую статью DeepSeek под названием Engram, посвященную неэффективности больших языковых моделей (LLM) на основе трансформеров. Традиционные LLM используют глубокие вычисления как для сложных рассуждений, так и для простого запоминания, что приводит к нерациональному использованию вычислительных ресурсов. Engram вводит механизм условной памяти, использующий масштабируемые таблицы поиска, эффективно различая задачи, требующие глубоких вычислений, и задачи, требующие простого запоминания. Этот подход продемонстрировал значительные улучшения как в задачах на получение знаний, так и в задачах на рассуждения, оптимизируя эффективность и производительность LLM. Я также обсуждаю аппаратные аспекты и потенциальные ограничения этого нового метода. ССЫЛКИ: https://github.com/deepseek-ai/Engram... https://github.com/deepseek-ai/Engram... Мое приложение для преобразования голоса в текст: whryte.com Веб-сайт: https://engineerprompt.ai/ Курс RAG Beyond Basics: https://prompt-s-site.thinkific.com/c... Подпишитесь на рассылку, localgpt: https://tally.so/r/3y9bb0 Давайте общаться: 🦾 Discord: / discord ☕ Поддержите меня, купив мне кофе: https://ko-fi.com/promptengineering |🔴 Patreon: / promptengineering 💼Консультации: https://calendly.com/engineerprompt/c... 📧 Контакт для деловых вопросов: engineerprompt@gmail.com Станьте участником: http://tinyurl.com/y5h28s6h 💻 Предварительно настроенная виртуальная машина localGPT: https://bit.ly/localGPT (используйте код: PromptEngineering для скидки 50%). Подпишитесь на новостную рассылку localgpt: https://tally.so/r/3y9bb0 00:00 Проблема памяти с LLM 00:25 Сложное рассуждение против простого запоминания 00:56 Неэффективность архитектур на основе трансформеров 01:22 Энграмма DeepSeek: новый подход 04:36 Как работает энграмма 07:30 Производительность и ограничения энграммы