У нас вы можете посмотреть бесплатно PyTorch Day India 2026: Масштабирование взаимодействия экспертов для всех: Высокоэффективное обуч... или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Архитектуры типа «смесь экспертов» (Mixture-of-Experts, MoE) предлагают мощный способ масштабирования производительности моделей без пропорционального увеличения вычислительных мощностей, однако для эффективного обучения таких моделей в больших масштабах традиционно требовались сложные знания в области распределенных систем. В этом докладе будет рассмотрено, как разработчики могут масштабировать модели MoE непосредственно в PyTorch, используя распределенные функции и оптимизированные стратегии параллелизма.