У нас вы можете посмотреть бесплатно Tracing the Untraceable: Full-Stack Observability for LLMs and Agents (AWS re:Invent 2025) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
In just a few years, LLMs have gone from research curiosities to the backbone of new software experiences. Organizations are rushing to productionize LLM workflows because of their immense value — but they’re doing so without observability guardrails. This introduces new layers of fragility and complexity: performance volatility, quality drift, and security risks. In this talk, we explore how to instantly monitor and troubleshoot LLM applications with zero instrumentation. Whether on commercial LLM stacks or AWS Bedrock, we break out of the LLM black box and learn how to monitor token usage, response latency, data exposure prompts, and model execution failures.