У нас вы можете посмотреть бесплатно [Разреженное внимание DeepSeek] DeepSeek. Повышение эффективности работы с длинным контекстом с п... или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Действительно ли секрет более умного ИИ заключается в том, чтобы уделять меньше внимания? В традиционных моделях обработка длинных контекстов требует «плотного внимания» — одновременного анализа всего, что потребляет огромные ресурсы. Но сегодня мы исследуем прорыв под названием DeepSeek-V3.2-Exp. Используя новую архитектуру DeepSeek Sparse Attention (DSA), эта экспериментальная модель меняет правила игры. Она создает фильтр — Lightning Indexer — который сначала находит критически важные токены, поэтому модель фокусируется только на том, что действительно важно. Мы обсудим, как это преодолевает квадратичный барьер масштабирования и что это означает для будущего эффективного вывода.