У нас вы можете посмотреть бесплатно DSC: Efficient MoE Adaptation via Basis Expansion или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
In this AI Research Roundup episode, Alex discusses the paper: 'Dynamic Subspace Composition: Efficient Adaptation via Contractive Basis Expansion(2512.23448v1)' Dynamic Subspace Composition (DSC) is a new framework designed to solve systemic inefficiencies in Mixture-of-Experts and Mixture-of-LoRAs architectures. It addresses critical bottlenecks such as memory-bandwidth limitations, optimization instability, and representation collapse in large models. By employing a state-dependent sparse expansion of a shared basis bank, DSC successfully decouples storage rank from adaptation rank. This approach significantly reduces parameter complexity and memory traffic while providing rigorous bounds on dynamic updates. The resulting architecture ensures improved continuity and training stability through a unique simplex interpolation method. Paper URL: https://arxiv.org/pdf/2512.23448 #AI #MachineLearning #DeepLearning #MoE #LLM #Efficiency #ParameterTuning Resources: GitHub: https://github.com/VladimerKhasia/DSC