У нас вы можете посмотреть бесплатно Fully local tool calling with Ollama или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Tools are utilities (e.g., APIs or custom functions) that can be called by an LLM, giving the model new capabilities. However, LLMs need to be able to 1) select the correct tool and 2) form the correct tool input. To date, both have been challenging w/ local LLMs. However, Ollama recently added function calling and we've incorporated this into a new partner package. Here, we show how to use the new Ollama partner package to perform tool calling w/ the recent Groq fine-tune of Llama-3 8b. As an example, we show how to create a simple tool calling agent in LangGraph with web search and vectorstore retrieval tools that runs locally. Llama-3-Groq-Tool-Use via Ollama - https://ollama.com/library/llama3-gro... Blog post for Llama-3-Groq-Tool-Use - https://wow.groq.com/introducing-llam... Code: https://github.com/langchain-ai/langg...