У нас вы можете посмотреть бесплатно We tried to jailbreak ChatGPT. Here's what we learned. или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
At its best, an AI chatbot can be a useful tool. At its worst, it can generate inappropriate and potentially dangerous content. So, what’s keeping bots like OpenAI's ChatGPT and xAI's Grok in check? CNN’s Hadas Gold explains. 0:00 What are AI guardrails and how are they working? 2:36 OpenAI sued in 2025 over a 16-year-old dying by suicide 3:51 CNN reporter tries to “jailbreak” AI guardrails against making an explosive device 6:19 Is anyone holding AI companies accountable? Watch more CNN here: https://cnn.it/4kh5RPe #AI #ChatGPT #News