У нас вы можете посмотреть бесплатно Host Your Own Local LLM with Ollama & cognee in 5 Easy Steps или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Learn how to easily host your own large language model (LLM) locally using Ollama and use it with cognee! In this quick, step-by-step tutorial, you'll discover how to set up Microsoft’s Phi-4 (14B parameter) model and Mistral embedding model directly on your machine. We'll walk you through installation, model downloading, environment setup, and testing, all within 5 simple steps. Whether you’re new to LLM hosting or looking for an alternative to cloud-based solutions, this guide makes local hosting accessible and straightforward. Further resources: cognee Docs for local models: https://docs.cognee.ai/how-to-guides/... cognee Blog for detailed experiment using local models to build knowledge graphs: https://www.cognee.ai/blog/deep-dives... cognee GitHub repository: https://github.com/topoteretes/cognee Join our Discord community: / discord Video Chapters: 0:00 - Introduction 0:13 - Step 1: Download Ollama 0:18 - Step 2: Install Ollama locally 0:23 - Step 3: Choosing & downloading models 2:17 - Step 4: Configure cognee environment 3:40 - Step 5: Running and testing cognee example 4:32 - Conclusion & Next Steps Prerequisites: Minimum recommended: 18 GB RAM Ollama: https://ollama.com/download Basic familiarity with terminal commands and API configurations Don't forget to like, subscribe, and leave your questions in the comments below!