• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Hacking AI is TOO EASY (this should be illegal) скачать в хорошем качестве

Hacking AI is TOO EASY (this should be illegal) 4 месяца назад

hacking AI

AI security

prompt injection

LLM security

AI pentesting

red teaming

ethical hacking

bug bounty

data exfiltration

jailbreaks

emoji smuggling

link smuggling

RAG poisoning

system prompt leak

GPT-4o

ChatGPT security

MCP security

Model Context Protocol

agentic AI

LangChain

LangGraph

CrewAI

AI firewall

guardrails

least privilege

Slack bot

Salesforce leak

Gandalf game

Jason Haddix

NetworkChuck

DEF CON

Black Hat 2025

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Hacking AI is TOO EASY (this should be illegal)
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Hacking AI is TOO EASY (this should be illegal) в качестве 4k

У нас вы можете посмотреть бесплатно Hacking AI is TOO EASY (this should be illegal) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Hacking AI is TOO EASY (this should be illegal) в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Hacking AI is TOO EASY (this should be illegal)

Want to deploy AI in your cloud apps SAFELY? Let Wiz help: https://ntck.co/wiz Can you hack AI? In this video I sit down with elite AI hacker Jason Haddix to unpack how attackers compromise AI-enabled apps—not just jailbreak chatbots, but exfiltrate customer data, abuse tool calls, and pivot across systems. We walk through his six-part AI pentest blueprint, play the Gandalf prompt-injection game, and demo wild techniques like emoji smuggling and link smuggling. You’ll see real-world cases (think Slack salesbots + Salesforce leaks), why MCP (Model Context Protocol) and agentic frameworks can widen the blast radius, and then we flip to defense: web-layer fundamentals, a “firewall for AI” on inputs/outputs, and least-privilege for data and tools—plus a hands-on demo you can try. If you’re building with AI in 2025, this is your wake-up call (and your roadmap). Educational content only—hack ethically and only with permission. 📌 Watch the Full Interview here:    • The AI Attack Blueprint (Interview with Ja...   Links and STUFF —-------------------------------------------------------- Practice Prompt Injection: https://gandalf.lakera.ai/baseline Pliney's Github: https://github.com/elder-plinius Follow Jason Everywhere: X: https://x.com/Jhaddix Linkedin:   / jhaddix   Instagram:   / j.haddix56   Tiktok:   / jhaddix56   Checkout Jason’s courses: Website: https://www.arcanum-sec.com/ Training Overview: Training: https://www.arcanum-sec.com/training-... Attacking AI course: https://www.arcanum-sec.com/training/... Hacking your career: https://www.arcanum-sec.com/training/... 🔥🔥Join the NetworkChuck Academy!: https://ntck.co/NCAcademy **Sponsored by Wiz.io 00:00 - Hack companies through AI? 00:58 - What does “hacking AI” really mean? 01:43 - AI pentest vs. red teaming (6-step blueprint) 02:42 - Prompt Injection 101 (why it’s so hard) 04:14 - Try it live: Gandalf prompt-injection game 05:09 - Jailbreak taxonomy: intents, techniques, evasions 05:55 - Emoji smuggling + anti-classifier demo 07:23 - Link smuggling (data exfiltration trick) 11:38 - Real-world leaks: Salesforce/Slack bot case 13:47 - MCP security risks & blast radius 16:55 - Can AI hack for us? Agents & bug bounties 20:52 - Defense in depth: web, AI firewall, least privilege 24:57 - Jason’s Magic Card: GPT-4o system prompt leak (wild story) SUPPORT NETWORKCHUCK --------------------------------------------------- ➡️NetworkChuck membership: https://ntck.co/Premium ☕☕ COFFEE and MERCH: https://ntck.co/coffee Check out my new channel: https://ntck.co/ncclips 🆘🆘NEED HELP?? Join the Discord Server:   / discord   STUDY WITH ME on Twitch: https://bit.ly/nc_twitch READY TO LEARN?? --------------------------------------------------- -Learn Python: https://bit.ly/3rzZjzz -Get your CCNA: https://bit.ly/nc-ccna FOLLOW ME EVERYWHERE --------------------------------------------------- Instagram:   / networkchuck   Twitter:   / networkchuck   Facebook:   / networkchuck   Join the Discord server: http://bit.ly/nc-discord AFFILIATES & REFERRALS --------------------------------------------------- (GEAR I USE...STUFF I RECOMMEND) My network gear: https://geni.us/L6wyIUj Amazon Affiliate Store: https://www.amazon.com/shop/networkchuck Buy a Raspberry Pi: https://geni.us/aBeqAL Do you want to know how I draw on the screen?? Go to https://ntck.co/EpicPen and use code NetworkChuck to get 20% off!! fast and reliable unifi in the cloud: https://hostifi.com/?via=chuck Prompt Injection explained with live demos: Gandalf game, emoji smuggling, and link smuggling exfiltration. AI Pentesting vs AI Red Teaming: a six-phase methodology for securing LLM apps end-to-end. LLM jailbreak taxonomy: intents, techniques, evasions, and utilities—how attackers actually think. RAG poisoning, tool-call abuse, and over-scoped API keys: the hidden risks in modern AI products. MCP (Model Context Protocol) security: tools/resources/prompts, server hardening, and blast-radius control. Agentic frameworks (LangChain, LangGraph, CrewAI) security pitfalls—and how to test them safely. Real-world case study: Slack salesbot + Salesforce data exposure and what went wrong. Defense in depth for AI: input/output validation, a firewall for AI (guardrails/classifiers), least privilege. Bug bounty + AI: why mid-tier vulns are getting automated while human creativity still wins. 2025 AI security blueprint: map your attack surface, prevent system-prompt leaks, and lock down data access. #promptinjection #aihacking #airedteaming

Comments
  • Every Paid AI - Now FREE & UNLIMITED (100% Legal) 2 месяца назад
    Every Paid AI - Now FREE & UNLIMITED (100% Legal)
    Опубликовано: 2 месяца назад
  • DEFCON — это не то, чего я ожидал... 1 месяц назад
    DEFCON — это не то, чего я ожидал...
    Опубликовано: 1 месяц назад
  • Dark Web РАСКРЫТ (БЕСПЛАТНО + Инструмент с открытым исходным кодом) 3 недели назад
    Dark Web РАСКРЫТ (БЕСПЛАТНО + Инструмент с открытым исходным кодом)
    Опубликовано: 3 недели назад
  • you need to learn MCP RIGHT NOW!! (Model Context Protocol) 3 месяца назад
    you need to learn MCP RIGHT NOW!! (Model Context Protocol)
    Опубликовано: 3 месяца назад
  • Этот суперкомпьютер на основе искусственного интеллекта может поместиться на вашем столе... 2 месяца назад
    Этот суперкомпьютер на основе искусственного интеллекта может поместиться на вашем столе...
    Опубликовано: 2 месяца назад
  • Вы ОТСТОЙ в подсказках ИИ (Вот в чем секрет) 2 недели назад
    Вы ОТСТОЙ в подсказках ИИ (Вот в чем секрет)
    Опубликовано: 2 недели назад
  • Social Engineer: YOU are Easier to Hack than your Computer 3 месяца назад
    Social Engineer: YOU are Easier to Hack than your Computer
    Опубликовано: 3 месяца назад
  • You've Been Using AI the Hard Way (Use This Instead) 1 месяц назад
    You've Been Using AI the Hard Way (Use This Instead)
    Опубликовано: 1 месяц назад
  • AI + Metasploit = Terrifyingly Easy Hacking is here (demo) 3 месяца назад
    AI + Metasploit = Terrifyingly Easy Hacking is here (demo)
    Опубликовано: 3 месяца назад
  • 3 Levels of WiFi Hacking 1 год назад
    3 Levels of WiFi Hacking
    Опубликовано: 1 год назад
  • Хакеры заразили не ту девушку.... 2 недели назад
    Хакеры заразили не ту девушку....
    Опубликовано: 2 недели назад
  • OSINT: как найти ВСЮ информацию о ЛЮБОМ ЧЕЛОВЕКЕ!! 1 месяц назад
    OSINT: как найти ВСЮ информацию о ЛЮБОМ ЧЕЛОВЕКЕ!!
    Опубликовано: 1 месяц назад
  • What is DNS? (and how it makes the Internet work) 1 год назад
    What is DNS? (and how it makes the Internet work)
    Опубликовано: 1 год назад
  • I'll never use n8n the same...... 4 дня назад
    I'll never use n8n the same......
    Опубликовано: 4 дня назад
  • The AI Attack Blueprint (Interview with Jason Haddix) 4 месяца назад
    The AI Attack Blueprint (Interview with Jason Haddix)
    Опубликовано: 4 месяца назад
  • You NEED to Use n8n RIGHT NOW!! (Free, Local, Private) 4 месяца назад
    You NEED to Use n8n RIGHT NOW!! (Free, Local, Private)
    Опубликовано: 4 месяца назад
  • How to Jailbreak AI & Use it for Hacking | ChatGPT 5 | Gemini 2.5 Pro | Claude 2 месяца назад
    How to Jailbreak AI & Use it for Hacking | ChatGPT 5 | Gemini 2.5 Pro | Claude
    Опубликовано: 2 месяца назад
  • AI turns $1 into $1,000,000, but ends a life - exactly as experts warned. 4 месяца назад
    AI turns $1 into $1,000,000, but ends a life - exactly as experts warned.
    Опубликовано: 4 месяца назад
  • everything is open source if you know reverse engineering (hack with me!) 2 месяца назад
    everything is open source if you know reverse engineering (hack with me!)
    Опубликовано: 2 месяца назад
  • How to Disappear Online and Become Untraceable 5 месяцев назад
    How to Disappear Online and Become Untraceable
    Опубликовано: 5 месяцев назад

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5