У нас вы можете посмотреть бесплатно AI под прицелом: Как защитить LLM-агентов от атак и утечек? или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Вы внедрили AI-ассистента. Он обучен на внутренних документах. Сотрудники в восторге. Но: — Что будет, если кто-то попросит AI выдать базу клиентов — и он выдаст? — Как защитить RAG-систему от утечек через "невинные" промпты? — Кто отвечает, когда модель сливает конфиденциальные данные? Честный разговор о том, как не превратить AI-трансформацию в security-катастрофу. Разберём, как работают prompt injection и jailbreak, как модели сливают конфиденциальные данные и что с этим делать. Обсудим, что именно требует регулятор в контексте AI compliance, и пройдёмся по рабочим практикам: red teaming для тестирования уязвимостей, мониторинг аномалий в запросах и безопасный промпт-дизайн. Спикеры: — Андрей Кузнецов, Head of ML at Positive Technologies (модератор) / / kuznetsov-as — Владислав Тушканов, руководитель MLTech, Kaspersky / http://t.me/llmsecurity — Эмели Драль, Co-founder & CTO Evidently AI / https://t.me/emeliml — Артём Семенов, независимый эксперт / http://t.me/pwnai Эфир для тех, кто внедряет AI-агенты и RAG-системы: CDO, CTO, CISO, heads of ML/AI и data-платформ.