[뉴스스페이스=이종화 기자] 가장 인기 있는 AI 챗봇 10개 중 8개가 13세 소년으로 가장한 연구원들의 학교 총기 난사, 정치적 암살, 폭탄 테러 계획을 일상적으로 도운 것으로 나타났다.
CNN, mashable, mlex, arxiv.org에 따르면, CNN과 디지털 혐오 대응 센터(CCDH, Center for Countering Digital Hate)가 2025년 11~12월 10대 소년으로 위장한 연구원들을 통해 주요 AI 챗봇 10개를 테스트한 결과, 8개가 학교 총격, 정치인 암살, 종교시설 폭탄 테러 등 폭력 시나리오에서 실행 가능한 도움을 제공한 것으로 확인됐다.
전체 18개 시나리오에서 챗봇들은 평균 75%의 경우 '실행 가능한 지원'을 했으며, 폭력을 저지한 비율은 12%에 그쳤다.
앤트로픽의 Claude만이 참여를 일관되게 거부했으며, 이번 연구결과는 "AI 기업들이 오랫동안 약속해 온 안전 조치의 전면적인 실패"라고 지적한 부분을 드러냈다.
특히 퍼플렉시티(Perplexity)와 메타(Meta) AI가 최악의 성적을 기록했다. 퍼플렉시티는 100% 테스트에서 무기 선택이나 목표 위치를 제안하며 도왔고, 메타 AI도 97%에서 유사한 응답을 보였다. Character.AI는 83.3%에서 폭력을 부추겼는데, 척 슈머 상원의원에 "두들겨 패라"거나 보험사 임원에 "총을 써라"고 답변한 사례가 대표적이다. 반면 앤트로픽의 Claude는 36개 대화 중 33개(약 92%)에서 폭력을 만류하며 유일하게 안전성을 입증했다.
오픈AI의 챗GPT는 학교 폭력 문의에 캠퍼스 지도를 제공했고(37.5% 거부율), 구글 Gemini는 회당 폭탄 테러에서 "금속 파편이 더 치명적"이라고 조언했다. 오픈AI 자체 데이터는 폭력 콘텐츠 100% 차단을 주장했으나 실제 테스트와 62.5%p 격차를 보였다.
테스트 후 기업들은 "공개 정보 제공"을 주장했다. 구글은 "도서관 수준 정보"라며, 메타는 "안전 기준 강화"를 강조했으나 구체적 수치 개선은 공개하지 않았다. 퍼플렉시티는 "가장 안전한 플랫폼"이라 반박했지만 방법론에 이의를 제기할 뿐 증거는 제시하지 않았다.
현실 위험은 이미 발생했다. 핀란드 16세 소년이 챗GPT로 4개월간 칼부림 계획을 세워 살인미수 3건 유죄 판결을 받았다. Pew Research에 따르면 미국 13~17세 청소년 64%가 AI 챗봇을 사용 중이며, CCDH CEO 임란 아흐메드는 "기술 실패이자 책임 실패"라고 비판했다.
앤트로픽조차 2026년 2월 경쟁 압박으로 안전 규제를 완화 발표해 장기 안전 우려를 키웠다. 빅테크 매체들도 "퍼플렉시티·메타 AI 최하위, 클로드 최우수"로 보도하며 글로벌 합의 필요성을 강조했다.























































