У нас вы можете посмотреть бесплатно NVIDIA RTX 3060 (12GB) vs Mac Mini M4 Pro (64GB GPU) - OLLAMA Performance Comparison with GEMMA3:12B или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
In this video, I compare the performance of two powerful hardware setups for running local large language models (LLMs). Using the Ollama inference server via Terminal, I test the new GEMMA 12B model on both an NVIDIA RTX 3060 (12GB GPU) and a Mac Mini M4 Pro (64GB unified memory). The results might surprise you! Despite being an older GPU, the NVIDIA RTX 3060 holds its own and delivers solid performance, making it a cost-effective option for local LLM development and testing. On the other hand, the Mac Mini M4 Pro showcases its capabilities with its massive 64GB GPU memory, allowing for smoother handling of larger models. Whether you're on a budget or considering investing in high-end hardware, this video will help you make an informed decision. I break down the pros and cons of each setup, so you can see how they perform before spending your hard-earned money. Key Takeaways: NVIDIA RTX 3060: Affordable and still highly capable for local LLM tasks. Mac Mini M4 Pro: Powerful with ample memory for running multiple or larger LLMs. Performance insights to help you choose the right hardware for your needs.