У нас вы можете посмотреть бесплатно Установка Clawdbot: руководство для занятого инженера по шлюзу, панели управления и локальной мод... или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Полную статью читайте здесь: https://binaryverseai.com/clawdbot-in... Хотите установить Clawdbot так, чтобы это действительно ощущалось как «локальная установка», а не как хобби-проект DevOps на выходные? В этом видео вы увидите точную конфигурацию (Gateway + Dashboard + Ollama) и реальные проблемы, с которыми сталкиваются в продакшене: несоответствие версий Node, конфликты портов, печально известная ошибка 1008 Unauthorized и момент «почему запрашивается ключ API, если Ollama работает локально?». Что вы будете создавать (простым языком): Постоянно работающий шлюз (ваша плоскость управления) Панель управления / пользовательский интерфейс на порту 18789 Локальный LLM через Ollama (пример GLM 4.7 Flash) Стабильная конфигурация, сохраняющаяся после перезагрузок (установка демона) Дополнительный мобильный доступ через WhatsApp / Telegram с безопасными настройками сопряжения по умолчанию Упомянутые ключевые команды: Установка: curl -fsSL https://clawd.bot/install.sh | bash ИЛИ npm install -g clawdbot@latest Подключение: clawdbot onboard --install-daemon Проверки работоспособности: clawdbot status / clawdbot health Обновление токена панели управления: clawdbot dashboard Модель Ollama: ollama pull glm-4.7-flash Включить провайдер: export OLLAMA_API_KEY="ollama-local" Сделать его локальным в первую очередь (config): установить основную модель на ollama/glm-4.7-flash Перезапустить шлюз: clawdbot gateway restart Напоминание о безопасности (сделайте это) Если вы работаете на VPS, не открывайте порт 18789 напрямую в общедоступный интернет. Используйте SSH-туннель или TailNet (например, Tailscale), чтобы ваша управляющая плоскость оставалась приватной. Разделы 00:00 Мечта против реальности 01:10 Философия: Код корабля, не косплей DevOps 01:44 Архитектурный стек (Gateway, Dashboard, Ollama) 03:32 Предварительное условие: Почему Node 22+ обязателен 04:30 Гигиена портов: Проверка порта 18789 05:07 Установка: Скрипт против NPM 05:58 Ввод в эксплуатацию: Настройка демона 06:53 Проверка: «Скука прекрасна» 07:22 ПРЕДУПРЕЖДЕНИЕ: Не раскрывайте порт 07:55 Устранение неполадок: Ошибка 1008 Unauthorized 08:44 Установка Intelligence (Ollama и GLM 4.7) 09:34 Невидимый переключатель: Исправление фиктивного ключа API 10:37 Конфигурация: Настройка параметров «Локально в первую очередь» 11:29 Дымовой тест: Работает ли он в режиме реального времени? 12:28 Мобильный доступ: WhatsApp и Telegram 12:56 Безопасность: Модель сопряжения 13:46 Выбор хостинга: VPS против WSL против Docker 14:38 Обслуживание: Относитесь к конфигурации как к коду 15:02 Краткий обзор 3 золотых правил 15:42 Заключение и призыв к действию Если это было полезно, подпишитесь, чтобы получать больше руководств по локальной инфраструктуре ИИ, пошаговых инструкций по устранению неполадок и практических развертываний, которые не отнимают ваше время. #ClawdbotInstall #Ollama #LocalLLM #SelfHostedAI #Ubuntu