У нас вы можете посмотреть бесплатно Is a 4B Local Model Actually Good at Coding? Qwen 3.5 Review или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
In this video, I test the new Qwen 3.5 local AI models (specifically the 4B parameter MLX version) on a Mac Mini M4 Pro with 24GB of RAM to see if it can build an Astro.js website completely from scratch. We dive into LM Studio, compare quantization sizes (4-bit vs. 8-bit), check token generation speeds, and test its tool-calling capabilities inside the Zed editor. While the model successfully created over 3,000 lines of code and SVGs locally, the experiment eventually pushed the M4 Pro’s memory to the breaking point! Stick around to see the final design (with a little help from Claude 3.5 Sonnet to fix the code loops). Hardware/Software used: Mac Mini M4 Pro (24GB RAM) LM Studio (MLX framework for Mac) Zed Editor Astro.js / Tailwind CSS Let me know in the comments: What is your favorite local, open-source LLM right now?