У нас вы можете посмотреть бесплатно Думающие машины: LoRA без сожалений или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
В статье «LoRA Without Regret» рассматриваются условия, при которых низкоранговая адаптация (LoRA), популярный метод параметрически эффективной тонкой настройки (PEFT), может сравниться по производительности с полной тонкой настройкой (FullFT). Авторы провели эксперименты, показывающие, что LoRA достигает эквивалентной выборочной эффективности и конечной производительности с FullFT при соблюдении двух ключевых условий: он применяется ко всем весовым матрицам нейронной сети, особенно к слоям многослойного перцептрона (MLP), и его производительность не превышается информацией в обучающем наборе данных. Хотя LoRA уступает, когда его производительность слишком мала для размера набора данных или применяется только к слоям внимания, было обнаружено, что он исключительно эффективен в сценариях обучения с подкреплением, соответствуя FullFT даже с очень низкими рангами благодаря меньшей информативности обучения с подкреплением. Исследование также предоставляет практические рекомендации по гиперпараметрам, отмечая, что оптимальная скорость обучения для LoRA стабильно примерно в 10 раз выше, чем для FullFT, и объясняет, почему эта скорость в значительной степени не зависит от ранга LoRA. В конечном счёте, авторы определяют «режим с малыми потерями», в котором эффективность LoRA в обучении, использовании памяти и оперативном развёртывании может быть использована без ущерба для производительности модели, охватывая наиболее распространённые ситуации после обучения. https://thinkingmachines.ai/blog/lora/