У нас вы можете посмотреть бесплатно 4-битная революция: обучение FP4, NVFP4 против MXFP4 и объяснение Nvidia Blackwell или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Искусственный интеллект не просто становится быстрее, становясь больше — он может стать умнее, становясь меньше. В этом видео мы подробно разбираем 4-битную (FP4) революцию: как работает полностью квантованное обучение с весами, активациями и градиентами, почему размер блока 16 важен и как Nvidia Blackwell реализует FP4 на аппаратном уровне. Мы сравниваем NVFP4 и MXFP4, раскрываем рецепт раздельного округления (округление до ближайшего прямого + стохастическое округление обратного) и показываем реальную проблему, из-за которой torch.empty создавал NaN, и простое решение, которое спасло ситуацию. Наконец, мы остановимся на следующем: это чистая инновация или привязка к поставщику? Что означает сокращение памяти в 3,5 раза для масштаба и стоимости модели, а также для скорости открытых стандартов по сравнению с проприетарными? Что вы узнаете Полное обучение FP4 и почему это прорыв NVFP4 против MXFP4: размеры блоков, масштабирование и компромиссы в вопросах точности Раздельное округление, стабилизирующее обучение Исправление ошибки torch.empty → torch.zeros (объяснение NaN) 4-битное аппаратное обеспечение Blackwell и его влияние на отрасль Теги (15–25)