У нас вы можете посмотреть бесплатно Deploying Large Language Models to Mobile Phones with Memory Offloading или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Carnegie Mellon University 15-821/18-843: Mobile and Pervasive Computing, Fall 2025 Students: Hongyi Jin and Ruihang Lai Mentor: Babu Pillai This project implements LLM weight offloading on mobile phones, thereby enabling mobile deployment of models that cannot fit mobile phone memory. The implementation supports a wide range of Apple devices, including iPhone, iPad, and Mac. Modern LLMs are all based on the transformer architecture, which consist of many identical layers. Therefore, we can divide a model into multiple stages. Before running a stage, we evict the model weights of the previous stage and load the model weights of the current stage. By doing this, the maximum memory requirement is bounded by the largest stage.