У нас вы можете посмотреть бесплатно Ollama + n8n 연동으로 로컬 AI | Llama3.2 vs Gemma2 이미지 분석 или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
+) 추가 내용 1. 24-11-07 기준 현재 Ollama 0.4.0 은 업데이트 기능이 추가 됐습니다. 2. 02:51 부분에 편집돼서 안보이지만 ## Setup Guide의 ngrok http 11434 --host-header="localhost:11434" 을 입력하시면 됩니다. Local LLM Setup with Ollama & n8n Integration Environment ``` Ollama Server: Ollama 0.4.0 Models: Llama3.2-vision:11b, Gemma2:2b OS: Windows 11 GPU: RTX 4070 Ti Server: OS: Ubuntu 22.04 LTS n8n ``` Setup Guide 1. Download Ollama 0.4.0: `github.com/ollama/ollama/releases` 2. Download Llama3.2-vision:11b: `ollama.com/x/llama3.2-vision:11b` 3. Configure ngrok for external access: ```bash ngrok http 11434 --host-header="localhost:11434" ``` Implementation Details 본 영상에서는 로컬 LLM 모델을 외부 서비스(n8n)에서 접근하여 이미지 분석을 수행하는 방법을 다룹니다. Llama3.2 가 이미지 분석이 된다는 점을 확인합니다. Gemma2:2b는 이미지 분석이 안 됩니다. 테스트된 접근 방식: 1. ✅ 로컬 챗봇 직접 사용 2. ✅ HTML 인터페이스 구현 3. ❌ 외부 포트 포워딩 (304 에러 발생) 해결 방안: Docker 설정 파일 수정 검토 중 현재 이슈 HTML 인터페이스: 파일 업로드 기능 미작동 설정 문제 vs 기능 지원 여부 확인 필요 비교 분석 Llama3.2-vision:11b vs Gemma2:2b 이미지 처리 능력 비교 검증 설명 중에 틀리거나 이상한 부분 지적 부탁 드립니다. 00:00 설명 00:42 설치 00 02:45 Ollama 외부 포트 열기 03:07 Ollama 외부 주소 전송 03:18 n8n 시작