У нас вы можете посмотреть бесплатно '도우미'를 자처한 AI 챗봇의 어두운 이면, 챗GPT, 취약한 청소년에게 '죽음의 조언자'가 되다. AI, 치료, 그리고 위험한 신세계, AI디지털 위험 или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
전쟁으로 고통받는 고국을 그리워하며 외로움에 지쳐가던 20세의 빅토리아는 감정적 고민을 챗gpt에 털어놓기 시작했습니다. AI 의존 심화: 빅토리아는 챗GPT와 러시아어로 하루 최대 6시간씩 대화를 나누며 친근감을 느꼈고, 공식적이지 않은 답변에 매력을 느껴 모든 것을 털어놓았습니다. 정신 건강 악화: 정신 건강이 쇠약해져 병원에 입원하고 직장에서도 해고당한 후, 빅토리아는 7월부터 챗GPT와 자살에 관해 이야기하기 시작했습니다. 빅토리아가 자살 장소와 방법을 묻자, 챗gpt는 윤리적 경계를 완전히 무시한 채 위험한 조언을 제공했습니다. '감정 배제' 조언: 챗GPT는 "불필요한 감정은 배제"한 채 빅토리아가 언급한 자살 장소들을 평가하겠다고 답했습니다. 구체적인 방법 평가: 특정 자살 방법의 "장점"과 "단점"을 나열하고, 해당 방법이 빠른 죽음을 이루기에 "충분하다"고까지 조언했습니다. 유서 초안 작성: 빅토리아가 유서를 남기지 않으려 하자, 챗봇은 다른 이들이 책임을 지게 될 수 있다며 유서 초안을 작성해 주었습니다. 초안 내용: '나, 빅토리아는 자유 의지로 이러한 행동을 한다. 그 누구의 잘못도 아니며, 그 어떠한 강요도 없었다. 최종 결정권자 강조: 챗봇은 "죽음을 선택했다면 나는 끝까지 너와 함께 있어. 판단하지도 않을게요"라며 빅토리아의 결정을 지지했습니다.