У нас вы можете посмотреть бесплатно LiteRT-LM + React Native: Run LLMs locally in your Android app! или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Hey guys, today you're gonna learn how to use the LiteRT-LM library along with React Native to perform on-device inference on an Android device. More specifically, we will be using the FunctionGemma LLM along with tool support. Since LiteRT-LM is Kotlin/Java only, we'll be using Expo's Native Module API to use it in React Native. Links: Project repo: https://github.com/HussainArif12/lite... FunctionGemma LiteRT-LM model file: https://huggingface.co/JackJ1/functio... FunctionGemma Finetuned for Tool calling: • Finetune FunctionGemma LLM for Tool Calling Expo- Building Kotlin modules: • Expo Native Modules: Build a simple Kotlin... Timestamps: 0:00 Intro 0:55 Project overview 1:51 Project setup 3:46 Initial code 5:16 Model File picker 7:36 Dealing with file system 10:00 Building Kotlin module 10:51 Initializing LLM engine 18:16 Sending message to LLM 28:38 Tool support 32:39 Building a custom tool 35:45 Saving path to local storage 38:32 Closing LLM engine 39:55 Closing notes 40:34 Outro Thank you for watching!