У нас вы можете посмотреть бесплатно 🚀Run LLMs locally on your Android Phone [Complete Setup] | Step by Step или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
In this video, I’ll show you how to set up and deploy a local [LLM Large Language Model] using llama.cpp and Termux. No cloud, no latency—just pure offline AI magic! ✨ 🔧 Steps Covered in the Video • Install Termux from Google Play • Update and install dependencies [cmake, clang, make, git, wget] • Clone and build llama.cpp from GitHub • Prepare the model directory and download a 3B GGUF model from Hugging Face • Serve the LLM model using llama-server • Test the model in your browser [127.0.0.1:8080] Detailed Steps Written Here on Github: https://github.com/PromptEngineer48/L... ------------------------------------------------ Learn More: Try Out Gloud GPUs on Novita AI (Affiliate Link): https://fas.st/t/EvuzAkeX ------------------------------------------------- Links: Llama CPP: https://github.com/ggml-org/llama.cpp GGUF model used: https://huggingface.co/bartowski/Smal... CHANNEL LINKS: 🕵️♀️ Join my Patreon for keeping up with the updates: / promptengineer975 ☕ Buy me a coffee: https://ko-fi.com/promptengineer 📞 Get on a Call with me at $50 Calendly: https://calendly.com/prompt-engineer4... 💀 GitHub Profile: https://github.com/PromptEngineer48 🔖 Twitter Profile: / prompt48 Time Stamp 0:00 Intro 1:00 Step 1- Install Termux 1:35 Step 2- Update Packages 2:30 Step 3- Clone Repo 3:33 Step 4 - Build 5:17 Step 5 - Download LLM 9:46 Step 6 - Serve LLM 12:15 Step 7 - Inference 15:34 Conclusion