У нас вы можете посмотреть бесплатно Ускорьте вывод Transformer на CPU с помощью Optimum и ONNX или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
В этом видео я покажу, как ускорить вывод Transformer с помощью Optimum, библиотеки с открытым исходным кодом от Hugging Face, и ONNX. Я беру модель DistilBERT, настроенную для классификации текста, экспортирую её в формат ONNX, затем оптимизирую и, наконец, квантую. Запустив тесты на экземпляре AWS c6i (архитектура Intel Ice Lake), мы ускорили исходную модель более чем в 2,5 раза и уменьшили её размер вдвое, используя всего несколько строк простого кода Python и без потери точности! ⭐️⭐️⭐️ Не забудьте подписаться, чтобы получать уведомления о новых видео ⭐️⭐️⭐️ ⭐️⭐️⭐️ Хотите угостить меня кофе? Мне всегда пригодится больше :) https://www.buymeacoffee.com/julsimon ⭐️⭐️⭐️ Optimum: https://github.com/huggingface/optimum Документация Optimum: https://huggingface.co/docs/optimum/o... ONNX: https://onnx.ai/ Оригинальная модель: https://huggingface.co/juliensimon/di... Код: https://gitlab.com/juliensimon/huggin...