У нас вы можете посмотреть бесплатно Como Rodar LLMs Localmente Off-Line e Com Sigilo dos Dados Gratuitamente | Ollama e LM Studio или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Aprenda Inteligência Artificial! ▸ Aprenda Agentes iA: • Curso de Agentes iA ▸ Seja MEMBRO: / @inteligenciamilgrau ▸ https://www.inteligenciamilgrau.com ▸ Instagram: / inteligenciamilgrau @inteligenciamilgrau ▸ Facebook: / inteligenciamilgrau ▸ GitHub: https://github.com/inteligenciamilgrau Lm Studio: https://lmstudio.ai/ Ollama: https://ollama.com/ Codex: https://github.com/openai/codex 00:00 Intro 01:00 Como Rodar Modelos de iA Localmente 01:29 Modelos, Tamanhos e Qual Escolher 01:41 O Que São os Bilhões de Parâmetros? 02:42 O Que é a Janela de Contexto? 04:03 Instalando o LM Studio 04:42 Escolhendo o Modelo 07:10 Como Avaliar se Seu Computador Suporta Rodar a iA? 08:01 Testando Um Modelo 1B Em Português 09:46 Como é o Ollama 11:55 Instalando o Ollama 13:37 Rodando o Ollama com Qwen 15:35 Instalando o DeepSeek 16:07 Rodando Ollama no Vs Code 18:34 Testando o DeepSeek 19:47 Integrando Ollama no Agente da OpenAi Codex CLI 22:38 Pensamentos Finais