У нас вы можете посмотреть бесплатно Testing TINY and FAST local LLM SmolLM2 135 Million parameter model или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
In this video, I test out another local LLM SmolLM2 models (1.7B and 135M) available from ollama.com to see how they perform in extracting structured text using the format = json_schema tool option. I'll walk you through the setup, explain why structured text extraction is crucial, and compare the performance between the two model sizes. Whether you're curious about leveraging LLMs for data extraction or just want to see how these models stack up, this video has you covered! 🔍 Topics Covered: Setting up smollm2 models for structured text extraction Using the format = json_schema tool option Comparing the performance of smollm2 1.7B vs. smollm2 135M vs. Granite3.2 Practical tips for extracting structured data with LLMs If you're into AI, data science, or practical applications of language models, make sure to hit that subscribe button and follow along! #MakeDataUseful #SmolLM2 #Ollama #StructuredData #DataExtraction