У нас вы можете посмотреть бесплатно Искусственный интеллект с LLM8850 или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
В этом видео я рассматриваю модуль искусственного интеллекта LLM8850 от M5Stack. Компания M5Stack в основном производит компоненты на базе ESP32, и у них есть два продукта для Raspberry Pi. Другой продукт — CM4Stack, использующий модуль Raspberry Pi CM4. Несмотря на отсутствие опыта работы с Raspberry Pi, M5Stack выпустила несколько очень успешных и мощных модулей искусственного интеллекта, и большинство из них работают под управлением Linux. LLM8850 обладает очень высокой производительностью: нейронный процессор (NPU) работает на пике 24 TOPS при INT8, а также имеет восьмиядерный процессор Cortex-A55 с частотой 1,7 ГГц. Я установил LLM8850 на плату ввода-вывода Raspberry Pi в разъем M.2, а система управляется Raspberry Pi CM5. Для установки программного обеспечения я установил все драйверы для LLM8850 и демонстрационные примеры с веб-сайта M5Stack. Позже я обнаружил, что однократное обновление операционной системы повредило мои ссылки, и на второй день ни один из моих примеров и демонстраций не работал. Это будет рассмотрено во втором видео. Установка прошла успешно, и я запустил множество демонстраций Vision, включая: Yolo11-Pose Yolo11-seg Yolo11-faces Все они работали и включены в видео. На второй день тестирования у меня возникли проблемы после обновления системы, которое повредило драйверы LLM8850. Сначала я не мог понять, в чем проблема. Ни одна из демонстраций и примеров не работала, поэтому я обратился за помощью в Microsoft Copilot. Это дало мне подсказку. Вероятно, драйверы больше не совместимы с обновленным ядром ОС. После удаления драйверов и их повторной установки все заработало. Мне нужно было быть внимательным при запуске некоторых примеров демонстраций, чтобы убедиться, что я нахожусь в правильном каталоге файлов. Мне еще предстоит протестировать следующие примеры видео-ИИ: MixFormerV2: улучшенная унифицированная модель отслеживания объектов на основе Transformer, повышающая точность и скорость отслеживания. Real-ESRGAN: модель сверхразрешения изображений на основе глубокого обучения. Она удаляет шумы и делает изображение более четким. SuperResolution: модель интерполяции видеокадров в реальном времени. RIFE: используется для улучшения плавности видео и создания анимации. Он используется для удвоения частоты кадров видео. После этого я протестирую и продемонстрирую LLM (большие языковые модели), включая: Qwen3-0.6B Qwen3-1.7B Qwen2.5-0.5B DeepSeek-R1-Distill-Qwen-1.5B-GPTQ-Int4 MiniCPM4-0.5B Многомодельные модели InternVL3-1B Qwen2.5-VL-3B-Instruct Qwen3-VL-2B-Instruct Qwen3-VL-4B-Instruct-GPTQ-Int4 SmolVLM2-500M-Video-Instruct CLIP Аудиомодели: Whisper MeloTTS SenseVoice CosyVoice2 3D-Speaker-MT Генеративные модели: lcm-lora-sd SD1.5-LLM8850 LivePortrait Приложения: Frigate. Наша система безопасности уже использует это и сообщает о найденных объектах в заданном массиве на наш SONOS. Immich CosyVoice2-API sherpa-onnx Здесь достаточно всего, чтобы меня мотивировать, и я поделюсь своим опытом и размышлениями в будущих видео. Ссылки: Магазин M5Stack: https://shop.m5stack.com/products/ai-...) Вики M5Stack: https://docs.m5stack.com/en/ai_hardwa... Руководство пользователя M5Stack LLM-8850: https://docs.m5stack.com/en/guide/ai_...