У нас вы можете посмотреть бесплатно Объяснение протокола контекста модели — Запустите собственный локальный сервер AI Notes MCP. или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Подключите локальный LLM к вашим приложениям, используя MCP (протокол контекста модели). В этом видео я продемонстрирую пример подключения Nextcloud Notes к моему локальному MCP-серверу, работающему в LLM Studio. Ссылки: Resumir AI - https://resumir.ai/tutorials/run-your... Nextcloud Notes MCP Server - https://github.com/rncz/nextcloud-not... Менеджер пакетов UV Python - https://docs.astral.sh/uv/getting-sta... LM Studio - https://lmstudio.ai/ Git SCM - https://git-scm.com/ Разделы: 0:00 Введение 0:10 Объяснение MCP 0:50 Использование правильной командной строки для вашего MCP 1:01 Nextcloud Notes MCP в действии 2:10 Загрузка, установка и настройка инструментов AI 2:53 Установка менеджера пакетов UV Python 3:17 Клонирование Nextcloud Примечания к серверу MCP 3:35 Настройка учетных данных Nextcloud 4:15 Настройка виртуальной среды и установка пакетов 4:28 Редактирование JSON-файла конфигурации MCP в LM Studio 4:58 Проверка работоспособности