У нас вы можете посмотреть бесплатно Я ускорил работу своего приложения для чата с ИИ в 2 раза с помощью двух простых приемов. или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Мне удалось вдвое ускорить работу моего приложения для чата с ИИ практически без каких-либо изменений — и в этом видео я покажу вам, что именно я сделал. Две простые оптимизации плюс бонусный трюк, который сделает работу вашего приложения невероятно плавной. Что мы рассматриваем: 1. Виртуализация — отображение только сообщений, видимых в области просмотра, независимо от длины диалога. 2. Оптимизированный хук useChat — замена useChat из AI SDK, использующая Zustand с мгновенным поиском сообщений и без ненужных перерисовок. 3. Бонус: Плавная потоковая передача — простой трюк, который сделает ответы вашего ИИ намного более плавными на стороне клиента (и бэкенда). 🔗 Упомянутые ссылки: Магазин инструментов AI SDK: https://ai-sdk-tools.dev/store GitHub Gist по Smooth Streaming: https://gist.github.com/Quintui/babb0... Статья о бэкенде Smooth Stream: https://upstash.com/blog/smooth-strea... Virtua: https://www.npmjs.com/package/virtua Если вам это помогло, оставьте комментарий ниже! Временные метки: 00:00 Вступление 00:14 Совет 1: Виртуализация 00:58 Как использовать Virtualizer 01:46 Совет 2: Оптимизированный useChat Hook (AI SDK Tools Store) 02:29 Как его настроить 03:07 Сопоставление идентификаторов сообщений (почему это важно) 04:25 Бенчмарки 04:56 Бонус: Smooth Streaming 05:23 Сглаживание на стороне клиента 05:28 Сглаживание на стороне бэкэнда с помощью smoothStream 06:02 Заключение