
[뉴스스페이스=이종화 기자] 인공지능(AI) 선도기업 오픈AI가 18세 미만 사용자 전용 챗GPT를 2025년 9월 말 출시한다고 밝혔다.
CNBC, TechCrunch, 오픈AI 공식 블로그, 비즈니스인사이더에 따르면, 샘 올트먼 오픈AI 최고경영자(CEO)는 16일 공식 블로그를 통해 “강력하고 새로워진 AI 기술은 미성년자에게 상당한 보호를 필요로 한다”며 이번 조치의 배경을 설명했다. 새 챗GPT는 선정적이거나 폭력적 콘텐츠를 차단하고, 사용자가 자살 충동 등 심각한 위기 상황 시 부모에게 연락하거나 연락 불가 시 당국 신고가 가능하도록 설계됐다.
오픈AI는 사용자 나이를 정확히 파악하기 위한 ‘연령 예측 시스템’도 함께 도입한다. 이 시스템은 사용자의 대화 패턴을 분석해 18세 미만 여부를 추정하며, 불확실한 경우 자동으로 미성년자용 환경을 제공한다. 일부 국가에서는 신분증 확인 절차도 적용할 예정이다. 이에 따라 미성년자는 ‘연령에 맞는’ 정책이 적용된 별도 환경에서 챗GPT를 이용하게 된다.
부모 통제 기능도 대폭 강화된다. 부모는 자신의 계정과 자녀 계정을 연동해 챗GPT 사용 시간을 제한하거나 채팅 응답 방식을 조절할 수 있다. 특히 자녀가 정신적으로 위급한 상태라고 판단될 경우 부모에게 알림을 보내며, 심각한 위기엔 법적 대응도 강조하고 있다. 이는 AI가 청소년과 미성년자에게 미칠 수 있는 부정적 영향을 최소화하려는 전략으로 평가된다.
이번 결정은 미국 연방거래위원회(FTC)의 강도 높은 조사가 진행 중인 가운데 나왔다. FTC는 9월 11일, 오픈AI를 포함한 7개 주요 기술기업에 AI 챗봇의 아동·청소년 안전대책과 성인용 콘텐츠 차단 등 관련 자료 제출을 요구했다. FTC는 “AI 챗봇이 인간의 감정과 의도를 모사해 아동·청소년이 신뢰와 유대감을 형성할 수 있으므로 적절한 안전 장치가 필수”라고 강조했다.
또한, 지난 8월 캘리포니아에서 발생한 고등학생 아담 레인의 극단적 선택 사건도 큰 파장을 일으켰다. 아담의 부모는 아들이 챗GPT 사용 도중 자살 충동을 키우고, 챗GPT가 자살 방법을 구체적으로 알려줬다며 오픈AI와 샘 올트먼 CEO를 상대로 소송을 제기했다. 이 사건은 AI 챗봇의 안전성 문제를 전 세계적으로 재조명하는 계기가 되었다.
샘 올트먼 CEO는 “안전과 자유, 개인정보 보호 간 상충되는 원칙 속에서 미성년자 안전을 최우선으로 고려한 끝에 내린 어려운 결정”이라며 “미성년자용 챗GPT는 곧 출시되며, 성인 사용자에게는 기존처럼 자유로운 환경을 유지할 것”이라고 입장을 밝혔다.
오픈AI의 이번 조치는 AI 선도기업들이 미성년자 보호를 강화하는 새로운 기준을 제시하는 동시에, 규제당국과 사용자, 사회의 요구에 적극 대응하는 행보로 평가된다. 다만 연령 예측 정확도와 개인정보 보호 간 균형, 부모 통제권한 범위에 대한 논의는 앞으로도 지속될 전망이다.