У нас вы можете посмотреть бесплатно AI Jailbreaking Demo: How Prompt Engineering Bypasses LLM Security Measures или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Can AI models be tricked into revealing restricted information? In this session from a recent AI conference, cybersecurity expert Clint Bodungen reveals how advanced prompt engineering techniques can bypass the security measures in large language models (LLMs). Through real-world examples, Clint demonstrates how context manipulation can access restricted information and even generate reverse shell payloads, highlighting the vulnerabilities in AI systems. This talk is a must-watch for cybersecurity professionals looking to understand the threats posed by generative AI. Join us for Generative AI in Action from Nov 11-13 (Virtual) to dive deeper into AI's impact on cybersecurity and explore cutting-edge solutions. 🟢 Use code BIGSAVE40 to get 40% off — offer valid for a limited time! 🔗 Register here: https://packt.link/isYlJ