• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Why securing AI is harder than anyone expected and guardrails are failing | HackAPrompt CEO скачать в хорошем качестве

Why securing AI is harder than anyone expected and guardrails are failing | HackAPrompt CEO 2 месяца назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Why securing AI is harder than anyone expected and guardrails are failing | HackAPrompt CEO
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Why securing AI is harder than anyone expected and guardrails are failing | HackAPrompt CEO в качестве 4k

У нас вы можете посмотреть бесплатно Why securing AI is harder than anyone expected and guardrails are failing | HackAPrompt CEO или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Why securing AI is harder than anyone expected and guardrails are failing | HackAPrompt CEO в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Why securing AI is harder than anyone expected and guardrails are failing | HackAPrompt CEO

Sander Schulhoff is an AI researcher specializing in AI security, prompt injection, and red teaming. He wrote the first comprehensive guide on prompt engineering and ran the first-ever prompt injection competition, working with top AI labs and companies. His dataset is now used by Fortune 500 companies to benchmark their AI systems security, he’s spent more time than anyone alive studying how attackers break AI systems, and what he’s found isn’t reassuring: the guardrails companies are buying don’t actually work, and we’ve been lucky we haven’t seen more harm so far, only because AI agents aren’t capable enough yet to do real damage. We discuss: 1. The difference between jailbreaking and prompt injection attacks on AI systems 2. Why AI guardrails don’t work 3. Why we haven’t seen major AI security incidents yet (but soon will) 4. Why AI browser agents are vulnerable to hidden attacks embedded in webpages 5. The practical steps organizations should take instead of buying ineffective security tools 6. Why solving this requires merging classical cybersecurity expertise with AI knowledge Brought to you by: Datadog—Now home to Eppo, the leading experimentation and feature flagging platform: https://www.datadoghq.com/lenny Metronome—Monetization infrastructure for modern software companies: https://metronome.com/ GoFundMe Giving Funds—Make year-end giving easy: http://gofundme.com/lenny Transcript: https://www.lennysnewsletter.com/p/th... My biggest takeaways (for paid newsletter subscribers): https://www.lennysnewsletter.com/i/18... Where to find Sander Schulhoff: • X: https://x.com/sanderschulhoff • LinkedIn:   / sander-schulhoff   • Website: https://sanderschulhoff.com • AI Red Teaming and AI Security Masterclass on Maven: https://bit.ly/44lLSbC Where to find Lenny: • Newsletter: https://www.lennysnewsletter.com • X:   / lennysan   • LinkedIn:   / lennyrachitsky   In this episode, we cover: (00:00) Introduction to Sander Schulhoff and AI security (05:14) Understanding AI vulnerabilities (11:42) Real-world examples of AI security breaches (17:55) The impact of intelligent agents (19:44) The rise of AI security solutions (21:09) Red teaming and guardrails (23:44) Adversarial robustness (27:52) Why guardrails fail (38:22) The lack of resources addressing this problem (44:44) Practical advice for addressing AI security (55:49) Why you shouldn’t spend your time on guardrails (59:06) Prompt injection and agentic systems (01:09:15) Education and awareness in AI security (01:11:47) Challenges and future directions in AI security (01:17:52) Companies that are doing this well (01:21:57) Final thoughts and recommendations Referenced: • AI prompt engineering in 2025: What works and what doesn’t | Sander Schulhoff (Learn Prompting, HackAPrompt): https://www.lennysnewsletter.com/p/ai... • The AI Security Industry is Bullshit: https://sanderschulhoff.substack.com/... • The Prompt Report: Insights from the Most Comprehensive Study of Prompting Ever Done: https://learnprompting.org/blog/the_p... • OpenAI: https://openai.com • Scale: https://scale.com • Hugging Face: https://huggingface.co • Ignore This Title and HackAPrompt: Exposing Systemic Vulnerabilities of LLMs through a Global Scale Prompt Hacking Competition: https://www.semanticscholar.org/paper... • Simon Willison’s Weblog: https://simonwillison.net • ServiceNow: https://www.servicenow.com • ServiceNow AI Agents Can Be Tricked Into Acting Against Each Other via Second-Order Prompts: https://thehackernews.com/2025/11/ser... • Alex Komoroske on X: https://x.com/komorama • Twitter pranksters derail GPT-3 bot with newly discovered “prompt injection” hack: https://arstechnica.com/information-t... • MathGPT: https://math-gpt.org • 2025 Las Vegas Cybertruck explosion: https://en.wikipedia.org/wiki/2025_La... • Disrupting the first reported AI-orchestrated cyber espionage campaign: https://www.anthropic.com/news/disrup... ...References continued at: https://www.lennysnewsletter.com/p/th... Production and marketing by https://penname.co/. For inquiries about sponsoring the podcast, email podcast@lennyrachitsky.com. Lenny may be an investor in the companies discussed.

Comments
  • Anthropic C.E.O.: Massive A.I. Spending Could Haunt Some Companies Трансляция закончилась 3 месяца назад
    Anthropic C.E.O.: Massive A.I. Spending Could Haunt Some Companies
    Опубликовано: Трансляция закончилась 3 месяца назад
  • LLM Hacking Defense: Strategies for Secure AI 8 месяцев назад
    LLM Hacking Defense: Strategies for Secure AI
    Опубликовано: 8 месяцев назад
  • Лучший документальный фильм про создание ИИ 2 месяца назад
    Лучший документальный фильм про создание ИИ
    Опубликовано: 2 месяца назад
  • Richard Sutton – Father of RL thinks LLMs are a dead end 5 месяцев назад
    Richard Sutton – Father of RL thinks LLMs are a dead end
    Опубликовано: 5 месяцев назад
  • Почему AI генерит мусор — и как заставить его писать нормальный код 3 недели назад
    Почему AI генерит мусор — и как заставить его писать нормальный код
    Опубликовано: 3 недели назад
  • AI prompt engineering in 2025: What works and what doesn’t | Sander Schulhoff 8 месяцев назад
    AI prompt engineering in 2025: What works and what doesn’t | Sander Schulhoff
    Опубликовано: 8 месяцев назад
  • Чем ОПАСЕН МАХ? Разбор приложения специалистом по кибер безопасности 4 месяца назад
    Чем ОПАСЕН МАХ? Разбор приложения специалистом по кибер безопасности
    Опубликовано: 4 месяца назад
  • OpenClaw Creator: Почему 80% приложений исчезнут 1 месяц назад
    OpenClaw Creator: Почему 80% приложений исчезнут
    Опубликовано: 1 месяц назад
  • How AI is reshaping the product role | Oji and Ezinne Udezue 6 месяцев назад
    How AI is reshaping the product role | Oji and Ezinne Udezue
    Опубликовано: 6 месяцев назад
  • «Я выпускал код, который не понимаю, и уверен, что вы тоже» – Джейк Нейшнс, Netflix. 2 месяца назад
    «Я выпускал код, который не понимаю, и уверен, что вы тоже» – Джейк Нейшнс, Netflix.
    Опубликовано: 2 месяца назад
  • The World's Most Important Machine 2 месяца назад
    The World's Most Important Machine
    Опубликовано: 2 месяца назад
  • What Sam Altman Doesn't Want You To Know 2 месяца назад
    What Sam Altman Doesn't Want You To Know
    Опубликовано: 2 месяца назад
  • Самый опасный ИИ-агент, Manus в Telegram бесплатно, новинки Gemini, Claude, ChatGPT / Итоги февраля 2 недели назад
    Самый опасный ИИ-агент, Manus в Telegram бесплатно, новинки Gemini, Claude, ChatGPT / Итоги февраля
    Опубликовано: 2 недели назад
  • Marc Andreessen: The real AI boom hasn’t even started yet 1 месяц назад
    Marc Andreessen: The real AI boom hasn’t even started yet
    Опубликовано: 1 месяц назад
  • Ларри Джонсон: Удар США по острову Харг погубит страны Персидского залива 15 часов назад
    Ларри Джонсон: Удар США по острову Харг погубит страны Персидского залива
    Опубликовано: 15 часов назад
  • The $1B Al company training ChatGPT, Claude & Gemini on the path to responsible AGI | Edwin Chen 3 месяца назад
    The $1B Al company training ChatGPT, Claude & Gemini on the path to responsible AGI | Edwin Chen
    Опубликовано: 3 месяца назад
  • Becoming an AI PM | Aman Khan (Arize AI, ex-Spotify, Apple, Cruise) 1 год назад
    Becoming an AI PM | Aman Khan (Arize AI, ex-Spotify, Apple, Cruise)
    Опубликовано: 1 год назад
  • Они говорили, что искусственный интеллект уже давно заменит вас. 2 месяца назад
    Они говорили, что искусственный интеллект уже давно заменит вас.
    Опубликовано: 2 месяца назад
  • Новый китайский ИИ DuClaw сделал OpenClaw мгновенным и непобедимым. 1 день назад
    Новый китайский ИИ DuClaw сделал OpenClaw мгновенным и непобедимым.
    Опубликовано: 1 день назад
  • Полный гайд по Claude: как выжать максимум из этой нейросети 1 месяц назад
    Полный гайд по Claude: как выжать максимум из этой нейросети
    Опубликовано: 1 месяц назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5