У нас вы можете посмотреть бесплатно Deepseek V3.2 (Speciale) и Mistral Large 3 (полностью протестированные): классические модели Open... или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
В этом видео я рассмотрю новейшие модели Mistral и Deepseek, чтобы посмотреть, смогут ли они свергнуть нынешних королей SOTA. Я разбираю их новые архитектуры, включая Sparse Attention от Deepseek, и запускаю их в King Bench для проверки возможностей программирования и рассуждений. -- Ключевые выводы: 🚀 Mistral выпустила Mistral Large 3 и Ministral 3, но производительность при выполнении сложных задач остаётся нестабильной. 🧠 Deepseek V3.2 использует новую «разреженную архитектуру» (DSA) для значительного снижения вычислительных затрат при работе с длинными контекстами. 💡 Вариант Deepseek «Speciale» разработан для рассуждений, устраняя штрафы за длину, хотя он всё ещё требователен к производительности. 📉 Тесты показывают, что Mistral испытывает трудности с генерацией 3D-данных и планировкой этажей, в то время как Deepseek работает лучше, но имеет недостатки. ⚡ Deepseek Sparse Attention использует «молниеносный индексатор» для эффективной обработки до 128 тысяч токенов. 📊 В рейтинге Deepseek V3.2 занимает 11-е место (выше GPT-5.1 Codex), а Mistral Large — 27-е. 🧐 Несмотря на шумиху, другие модели, такие как GLM, MiniMax и Kimi, в настоящее время работают более стабильно.