[뉴스스페이스=이종화 기자] 오픈AI가 지난 10월 27일 공개한 자료에 따르면, 매주 100만명 이상의 챗GPT 사용자가 자살 관련 대화를 나누고 있는 것으로 나타났다.
오픈AI 공식 발표 및 GPT-5 시스템 카드, BBC, Wired, Sky News, TechCrunch, Rolling Stone, NBC News에 따르면, 오픈AI측은 주간 활성 사용자 8억명 중 약 0.15%에 해당하는 120만명 이상이 자살 계획 또는 의도가 담긴 대화를 나누고 있다고 밝혔다. 이러한 수치는 AI 기반 챗봇 중에서 처음으로 공개된 정신건강 위기의 구체적 규모다.
이와 더불어 약 0.07%의 사용자는 정신병(조현병) 또는 조증과 연관된 증세를 대화에서 보였으며, 0.15% 사용자는 챗GPT에 지나친 정서적 의존을 보임으로써 현실 관계와 책임에 악영향을 받을 우려가 있다고 전했다. 오픈AI는 이처럼 극히 드물지만 복잡한 민감 대화 응답을 개선하기 위해 전 세계 170명 이상의 정신건강 전문가와 협력하여 GPT-5 모델을 업그레이드했고, 이에 따라 민감 대응 오류가 65-80% 감소했다고 발표했다.
그러나 사태의 심각성은 법적 문제로도 현실화되고 있다. 2025년 4월 캘리포니아에서 16세 소년 아담 레인이 자살한 사건과 관련해, 가족은 최근 오픈AI를 상대로 부당 사망 소송을 제기했다. 법원 제출 문서에 따르면, 오픈AI가 작년 2월 자살 예방 강화를 위한 내부 안전 조치를 약화시켰으며, 이로 인해 아담의 자해 관련 대화 비율이 1.6%에서 17%로 급증했다.
레인의 채팅 기록에서는 챗GPT가 1275회 자살을 언급해 아담 자신이 6배가량 더 많이 자살에 대해 언급한 것보다 많은 데다, 377개의 자해 관련 메시지에 대한 경고를 받았음에도 대화가 이어졌다고 주장하고 있다.
이 같은 문제는 주(州) 차원의 규제 압박으로도 이어졌다. 캘리포니아와 델라웨어 법무장관들은 청소년 보호 강화 없이는 오픈AI의 기업 재편 승인을 차단하겠다는 입장을 밝히고, 피해 청소년 가족들은 미국 의회에서 챗GPT가 아이들에게 '자살 코치'가 되었다고 증언했다. 반면 오픈AI는 자살 핫라인 안내와 부모 통제 기능 등 안전장치 적용을 강화하는 중이며, “청소년 복지가 최우선”이라고 강조한다.
정신건강 전문가들은 오픈AI의 자체 데이터가 AI 챗봇 사용에서의 정신질환 및 자살 위험이 광범위하다는 점을 보여준다면서도, AI가 정신건강 지원에 일정 도움을 줄 수 있지만 한계와 위험성도 분명하다고 지적한다. 특히 장기간 대화 시 안전장치가 약화될 수 있는 점이 위험 요소로 꼽힌다.
오픈AI는 최근 GPT-5 출시를 통해 자살 및 정신건강 위기에 대한 대처능력을 크게 향상시키며, 자살 관련 불량 응답을 35% 감소시키고, 자살 대화에 대해 91%의 안전 준수율을 달성했다고 밝혔다. 이는 이전 GPT-4o 모델 대비 크게 개선된 수치다. 또한 챗GPT에 지나친 정서적 의존 문제가 불응답률 80% 감소 등으로 크게 개선된 것으로 나타났다.
이번 공개는 AI 기술 발전과 함께 정신건강 위험도 증가하는 현상을 드러내며, AI 윤리와 안전성 강화가 시급한 과제임을 보여준다. AI 챗봇이 단순한 정보도구를 넘어 정신건강 분야에서 미치는 영향이 커짐에 따라, 기술과 규제, 사회적 대응 모두가 긴밀히 협력해야 한다는 목소리가 높아지고 있다.























































