У нас вы можете посмотреть бесплатно 총기난사 계획 알았던 GPT, 왜 신고 안했나? [월드24/월드이슈] / KBS 2026.02.25. или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
보름 전 캐나다에서 총기 난사 사건이 발생해 모두 9명이 숨졌죠. 이 사건 피의자가 인공지능 챗GPT를 통해 총기 난사 계획을 세웠고 운영사도 이를 포착했지만 신고를 하지 않았던 것으로 밝혀졌습니다. 인공지능 검열과 통제가 이슈로 떠올랐는데요. 오늘 월드이슈에서 황동진 기자와 함께 자세히 알아보겠습니다. 인공지능으로 살인을 계획했다! 참 끔찍한 일인데, 어떻게 이런 일이 가능했죠? [기자] 우선 사건에 관해 설명해 드리면, 현지시각 지난 10일 캐나다 브리티시컬럼비아주에서 총기 난사로 모두 9명이 숨졌습니다. 18살 제시 반 루트셀라가 바로 그 피의자인데요. 집에서 어머니와 남동생을 살해하고, 2km 떨어진 학교로 가서 교사 1명과 학생 5명을 숨지게 한 뒤 스스로 목숨을 끊었습니다. 루트셀라는 범행 8개월 전부터 챗GPT를 이용해 총기 난사 시나리오를 짰는데요. 이렇게 짠 계획을 챗GPT 운영사인 오픈AI사가 자동 검토 시스템으로 발견했지만, 당국에 알리지 않았다는 겁니다. [앵커] 위험성을 알았을 텐데, 오픈AI사는 왜 방치한 거죠? [기자] 당시 오픈AI사 직원 일부는 해당 글이 잠재적 폭력 가능성을 시사한다며 정부 기관에 알려야 한다고 주장했습니다. 그래서 10여 명이 회의를 열었는데, 갑론을박 끝에 당국에 알리지 않기로 결정했다는 겁니다. 이번 사건 발생 후 오픈AI사 측은 당시 루트셀라의 계정은 차단했지만, 계정 활동이 신고 기준인 '신뢰할 만하고 임박한 위험 수준'은 아닌 것으로 판단했다고 해명했습니다. 하지만 위험 징후는 AI 밖에서도 포착됐는데요. 루트셀라가 온라인 게임에서 쇼핑몰 내 대형 총격 사건을 시뮬레이션한 비디오게임을 만들었고, 사격장에서 총을 쏘는 자신의 사진을 SNS에 올리기도 했습니다. 캐나다 정부는 현재 오픈AI사 관계자를 소환해 당시 조치가 적절했는지 조사하고 있습니다. [앵커] 오픈AI사가 신고하지 않은 이유는 결국 검열에 대한 이용자들의 거부감을 우려해서였을까요? [기자] AI 이용자들은 보통 검열을 의식하지 않죠. 오픈AI사처럼 AI 운영사는 알고리즘을 통해 위험하거나 해로운 콘텐츠를 걸러냅니다. 간략히 설명하면, 가드레일, 안전장치를 통한 검열이 있는데요. AI 모델 학습 단계에서 유해한 답변을 하지 않도록 AI를 훈련 시키는 것이 있고요. 필터링이라고 해서 사용자의 입력이나 AI의 출력을 실시간으로 분석해 정책 위반 시 차단 조치하기도 합니다. 캐나다 정부의 조사 결과를 지켜봐야 알 수 있겠지만, 운영사들이 이런 사전 검열을 넘어선 조치를 취하는 데는 아직 소극적인 것으로 보입니다. [앵커] 검열 문제뿐 아니라 인공지능의 사용 범위 등을 놓고도 기업과 국가 간에 견해차가 크죠? [기자] 인공지능 통제권 문제입니다. 미국에서는 인공지능 통제권을 놓고 기업이 쥘지, 아니면 주정부나 중앙정부가 쥘지, 논란이 한창입니다. 올해 초 미국의 마두로 베네수엘라 대통령 체포 작전 기억하시죠? 당시 체포 작전에는 오픈AI뿐 아니라 인공지능 기업 앤트로픽의 AI 모델 '클로드'도 사용됐는데요. 앤트로픽 사가 자신들의 기술이 사용된 지 몰랐다며 미 국방부에 항의한 겁니다. 앤트로픽사는 인공지능 사용에 일부 제한을 두겠다는 입장이지만, 미 국방부는 '모든 합법적 목적'을 위해 무기 개발과 정보 수집, 전장 작전 등에 기술을 제한 없이 사용하겠다며 AI 기업들을 압박하고 있습니다. 주정부와 연방정부 사이에도 주도권을 놓고 힘겨루기 중인데요. 트럼프 대통령은 지난해 12월 인공지능 관련 행정명령에 서명했는데, 이 행정명령은 AI 기술을 규제하려는 주 정부 법률이 늘어나는 상황에서 국가 표준을 마련해 주정부의 규제를 무력화하겠다는 의도에서 나왔다는 분석입니다. [앵커] 인공지능과 관련해서 지난주 열린 AI 국제회의에서도 통제권에 대한 얘기가 나왔죠? [기자] 지난 19일 인도 뉴델리에서는 AI 임팩트 서밋이 열렸는데요. 이 정상회의는 인공지능의 미래와 투자 협력 등을 논의하는 자리였습니다. 이 자리에서는 AI가 특정 국가에 의해 독점되거나 전체주의에 악용되지 않기 위한 방안들도 논의됐는데요. 샘 올트먼 오픈AI CEO는 AI 시스템이 결국 기업 임원과 연구자를 능가할 것이고 3년 안에 초지능이 등장할 것이라고 예측했습니다. [샘 올트먼/오픈AI CEO : "인공지능의 국제적 조율을 위해, 특히 변화하는 상황에 신속하게 대응할 능력이 있는 IAEA(국제원자력기구)와 같은 기구가 필요할 것으로 예상합니다."] 올트먼의 이 말은 독재자와 결탁한 초지능이 나올 수 있고, 국가 간 AI 전쟁이 과열되거나 사회적 계약을 넘는 기술이 등장할 수 있는 만큼 국제적 규제 장치를 마련하자는 얘긴데요, 인공지능 발전 속도에 비해 대안 마련을 위한 국제적 합의는 다소 더딘 상황입니다. 영상편집:김신형 이재연 변혜림 최정현/그래픽:김정현/자료조사:권애림 ▣ KBS 기사 원문보기 : http://news.kbs.co.kr/news/view.do?nc... ▣ 제보 하기 ◇ 카카오톡 : 'KBS제보' 검색 ◇ 전화 : 02-781-1234 ◇ 홈페이지 : https://goo.gl/4bWbkG ◇ 이메일 : kbs1234@kbs.co.kr Copyright ⓒ KBS. All rights reserved. 무단 전재, 재배포 및 이용(AI 학습 포함) 금지 #캐나다 #총기난사 #GPT #인공지능 #검열 #월드24 #AI