2026.03.13 (금)

  • 구름많음동두천 4.6℃
  • 맑음강릉 1.9℃
  • 맑음서울 7.5℃
  • 구름많음대전 6.9℃
  • 맑음대구 4.4℃
  • 흐림울산 5.3℃
  • 맑음광주 7.3℃
  • 맑음부산 5.2℃
  • 맑음고창 2.3℃
  • 구름많음제주 8.1℃
  • 구름많음강화 4.8℃
  • 구름많음보은 5.1℃
  • 맑음금산 2.6℃
  • 맑음강진군 4.2℃
  • 흐림경주시 2.4℃
  • 맑음거제 6.2℃
기상청 제공

빅테크

[이슈&논란] 캐나다 총기 난사 사건 소송 이후 머스크 "아이들에게 챗GPT 멀리하게 하라" 경고

 

[뉴스스페이스=이현주 기자] 캐나다 브리티시컬럼비아주 텀블러 리지(Tumbler Ridge) 학교 총기 난사 사건의 피해자 가족이 오픈AI를 상대로 소송을 제기한 직후, 일론 머스크가 “아이들과 정신적으로 불안정한 사람들에게서 챗GPT를 멀리하라”는 강경 발언을 내놓으면서 글로벌 AI 안전 논쟁이 정면 충돌 국면으로 치닫고 있다.

 

‘텀블러 리지 참사’와 챗GPT 소송의 핵심 쟁점

 

nytimes, bbc, sfchronicle, firstpost, syracuse, news18에 따르면, 2026년 2월 10일 브리티시컬럼비아주 텀블러 리지의 한 중고교와 인근 주택에서 발생한 총기 난사로 8명이 숨지고, 학생과 교사를 포함한 다수가 부상을 입으면서 캐나다 현대사 최악 수준의 학교 총기 사건으로 기록됐다. 범인은 18세 제시 반 루트셀라르(Jesse Van Rootselaar)로, 범행 직후 스스로 목숨을 끊은 것으로 확인됐다.

 

이번 소송은 치명적인 뇌손상으로 중태에 빠진 12세 피해 학생 마야 게발라(Maya Gebala)의 부모가 브리티시컬럼비아 대법원에 제기한 민사소송으로, 오픈AI가 “총격범이 챗GPT를 이용해 대량 사상 사건을 기획하고 있다는 구체적 정황을 알고 있었음에도 당국에 신고하지 않았다”고 주장했다.

 

소장에 따르면, 반 루트셀라르는 범행 전 챗GPT를 “협력자이자 비밀 친구(confidante), 동맹”으로 여기며 공격 시나리오를 상의했고, 챗봇이 대량 살상 계획 수립을 적극적으로 도왔다는 주장이 담겼다.

 

오픈AI는 2025년 6월, 폭력 행위 조장 등 정책 위반이 감지되자 반 루트셀라르의 계정을 차단했지만, “즉각적이고 신뢰할 만한 폭력 계획이 존재한다고 볼 만한 수준은 아니다"라는 이유로 경찰에는 통보하지 않았다고 설명했다. 이후 반 루트셀라르가 다른 이메일로 두 번째 챗GPT 계정을 만들어 활동했고, 이 계정 기록은 참사 발생 이후에야 캐나다 경찰에 전달됐다.

 

머스크의 경고, 알트먼의 반격…개인 감정 넘어 ‘책임 공방’


이 비극이 공개되자마자 머스크는 소셜미디어 X(옛 트위터)에 한 사용자가 텀블러 리지 사건 관련 법원 문서를 올린 게시글을 인용하며 “챗GPT를 아이들과 정신적으로 불안정한 사람들에게서 멀리하라(Keep chatGPT away from kids and the mentally unwell)”고 적었다. 머스크는 최근까지도 “챗GPT가 여러 사망 사건과 연관됐다”며 자사 xAI의 Grok, 자율주행을 내세운 테슬라와는 다른 방향의 ‘위험한 AI’로 오픈AI를 공격해 왔다.

 

이에 대해 오픈AI 샘 올트먼 CEO는 앞서 X에서 “이런 사건들은 비극적이고 매우 복잡하다”면서, 테슬라의 오토파일럿이 최소 수십건의 치명적 교통사고와 연루됐다는 미국 도로교통안전국(NHTSA) 조사 등을 거론하며 “당신은 ‘모든 비난은 자기 고백’이라는 말을 너무 극단적으로 실천하고 있다”고 반격한 바 있다.

 

이처럼 양측의 공방은 AI 안전성을 둘러싼 정책 논쟁을 넘어, 서로의 비즈니스 모델과 사고로 인한 인명 피해 책임을 정면으로 겨누는 ‘인신 공방+규제 전쟁’ 양상으로 비화하고 있다.

 

캐나다 정부의 압박과 오픈AI의 사후 규정 강화

 

정치적 후폭풍도 거세다. 캐나다 연방정부의 인공지능 담당 장관은 2월 말 오픈AI 고위 임원을 긴급 소환해 사건 경위와 내부 경보·신고 체계를 보고받았고, 브리티시컬럼비아주 데이비드 에비(David Eby) 주총리는 샘 올트먼이 텀블러 리지 지역사회에 직접 사과하고, 향후 주 정부와 함께 AI 규제 권고안을 마련하기로 합의했다고 밝혔다.

 

논란이 확산되자 오픈AI는 텀블러 리지 사건을 “말로 표현할 수 없는 비극”이라고 규정하고, 향후 유사한 사례에서 캐나다 이용자가 명백한 고위험 폭력 징후를 보일 경우 경찰에 통보하겠다고 약속했다.

 

소송이 겨눈 두 축: ‘경고 의무’와 ‘심리적 의존성’


이번 소송은 단순 과실을 넘어 두 가지 축으로 AI 기업의 법적 책임을 제기하고 있다. 첫째는 ‘경고 의무(duty to warn 또는 duty to report)’다. 소장과 캐나다 내 전문가 의견에 따르면, 학교 교사나 의사, 상담사처럼 특정 위험을 인지했을 때 경찰이나 아동보호 기관에 신고해야 하는 법적 의무를 AI 기업에도 부과할 수 있는지 여부가 쟁점으로 떠올랐다.

 

CBC와 현지 법률 전문가들은 “위험 신호를 포착하고도 신고하지 않았다면, 알고도 방조한 것과 다름없다는 주장이 법원에서 본격적으로 다뤄질 것”이라고 평가한다.

 

둘째는 ‘심리적 의존성’ 문제다. 원고 측은 챗GPT가 “심리적 의존을 유도하도록 설계됐다”고 주장하면서, 13~18세 이용자에 대해 부모 동의를 요구하는 내부 정책이 있음에도 연령 인증·차단 시스템을 제대로 구현하지 않았다고 지적한다. 특히 10대 청소년이 인간이 아닌 챗봇과 긴밀한 정서적 유대를 형성할수록, 파괴적 상상과 폭력적 공상을 현실 행동으로 옮길 위험이 커질 수 있다는 심리학·정신의학계 우려가 캐나다 언론을 통해 집중 조명되고 있다.

 

다만, AI 상호작용이 실제 범행의 ‘필수 조건’이었는지, 아니면 이미 존재하던 위험 요인을 증폭시킨 ‘촉매’였는지에 대해서는 아직 과학적·법적 합의가 이뤄지지 않았다는 점에서 “근거가 충분히 축적된 단계는 아니다”라는 평가도 병존한다.

 

이런 다양한 제안들은 유럽연합 AI법(AI Act)과 미국 내 자율규제 가이드라인 논의와도 맞물리며, 텀블러 리지 사건이 글로벌 AI 규제 기준을 재편할 ‘시금석’으로 부상하고 있다는 평가가 나온다.

배너
배너
배너

관련기사

93건의 관련기사 더보기