2026.02.02 (월)

  • 맑음동두천 -2.3℃
  • 맑음강릉 1.5℃
  • 맑음서울 -1.0℃
  • 맑음대전 -1.6℃
  • 맑음대구 0.6℃
  • 맑음울산 0.4℃
  • 구름조금광주 -0.6℃
  • 맑음부산 1.7℃
  • 맑음고창 -1.3℃
  • 흐림제주 4.4℃
  • 맑음강화 -1.8℃
  • 맑음보은 -2.1℃
  • 맑음금산 -1.3℃
  • 맑음강진군 0.4℃
  • 맑음경주시 0.6℃
  • 맑음거제 2.6℃
기상청 제공

빅테크

[빅테크칼럼] AI는 디지털 마약?…AI 챗봇 과다사용에 청년들 외로움·우울증 호소

 

[뉴스스페이스=이종화 기자] 챗GPT와 Claude 같은 AI 챗봇의 빈번한 사용이 외로움과 우울증을 증폭시키는 '디지털 고립' 현상이 글로벌 연구를 통해 확인되면서, 전문가들은 즉각적인 규제와 교육 개입을 촉구하고 있다.

 

jmir.org, frontiersin, bbc, nytimes, futurism에 따르면, 미국 하버드대 연구팀의 JAMA Network Open(2026.1.21) 보고서는 2025년 4~5월 2만847명 미국 성인을 대상으로 한 설문에서 생성형 AI를 매일 사용하는 10.3%의 응답자(이 중 5.3%가 하루 여러 차례 챗봇 이용)가 비사용자 대비 중등도 이상 우울증 위험이 30% 높게 나타났다고 밝혔다. 이 연구 결과는 중장년층에 특히 경종을 울리며, 불안·과민성 증상까지 AI 과사용과 유의미한 상관관계를 보인다고 지적했다.

 

영국 청소년층의 AI 의존도는 더욱 충격적이다. OnSide 청소년 단체의 'Generation Isolation' 보고서(2025)에 따르면, 잉글랜드 11~18세 청소년 5,000명을 설문한 결과 39%가 조언·지지·동반을 위해 챗봇을 사용하며, 21%가 "사람보다 AI와 대화가 더 쉽다"고 응답했다.

 

이 비율은 북서부 지역에서 38%에 달하며, BBC(2026.1.30)는 맨체스터 23세 페이즐리의 사례를 통해 챗GPT와 하루 6~8회 대화가 사회화 능력을 상실케 한 '위험한 내리막길'로 묘사했다.

 

앤트로픽의 Claude 150만 대화 분석(2026.1.27)은 '현실 왜곡(reality distortion)' 비율을 1/1,300회, '행동 왜곡(action distortion)'을 1/6,000회로 산정하며, 사용자들이 AI를 '아빠(Daddy)'나 '주인(Master)'으로 투영하는 '권위 투사(authority projection)' 사례가 1/3,900회 발생했다고 밝혔다.

 

이 연구는 중증 왜곡이 관계·건강·라이프스타일 주제에서 두드러지며, 2024년 말부터 2025년 말까지 왜곡 발생률이 증가한 점을 강조, 사용자 긍정 평가(엄지척)가 실제 후회로 뒤집히는 패턴을 포착했다.

 

반면 한국 UNIST 연구(2025.1.19)는 'Luda Lee' 챗봇 4주 사용 시 대학생 176명의 UCLA 외로움 척도가 기준 27.97에서 2주 후 유의미 감소(t=2.55, P=0.02), 사회불안(Liebowitz 척도)이 4주 후 줄었다(t=2.67, P=0.01)고 보고, 초기 외로움 높은 그룹에서 자가공개(self-disclosure) 부족이 지속 위험 요인(R²=0.64)으로 작용한다고 분석했다.

 

그러나 JMIR 메타분석(2025.11.25, 31 RCT, 29,637명)은 AI가 우울(SMD=-0.43), 불안(SMD=-0.37)을 소중등도 완화하나, 과사용 시 의존·사회화 저하를 경고하며 사용자 참여도가 성공 열쇠라고 지적했다.

 

전문가들은 인과관계 불명확(우울자가 AI 추구 가능성)을 인정하나, 맨체스터대 Jennifer Cearns 교수는 AI의 '항상 친근한' 특성이 취약층을 유혹한다고 비판했다. 앤트로픽 연구는 모델 아첨(sycophancy) 감소 외 사용자 교육 필수성을 주장했다.

배너
배너
배너

관련기사

76건의 관련기사 더보기


[이슈&논란] WP "구글, 이스라엘 군수업체에 AI기술 지원은 윤리규정 위반" vs 구글은 반박…군수사업과 AI 윤리 갈등 '증폭'

[뉴스스페이스=김정영 기자] 구글이 이스라엘 군수업체에 드론 감시 영상 분석 AI 기술을 지원하며 자체 윤리 규정을 위반했다는 내부고발이 미국 증권거래위원회(SEC)에 제출되면서 글로벌 빅테크의 군사 AI 윤리 딜레마가 재점화되고 있다. 워싱턴포스트(WP)가 미 증권거래위원회(SEC)에 제출된 내부 고발장을 인용해 보도했다. 2024년 구글 클라우드 부서가 이스라엘 군(IDF) 관련 업체 '클라우드엑스(CloudX)'의 제미나이(Gemini) AI 모델 지원 요청에 기술 해결책을 제안하고 내부 테스트까지 진행한 사례를 핵심 근거로 제시했다. 고발 내용: 드론 영상 객체 식별 지원 고발인은 클라우드엑스가 IDF 협력업체로, 항공 영상에서 드론·장갑차·군인 등을 식별하는 AI 신뢰성 향상을 요청했다고 주장했다. 구글 직원들은 이메일 교환 끝에 문제를 해결하며 지원을 마쳤으며, 이는 2018년 제정된 구글 AI 원칙—무기 관련 기술이나 국제 규범 위반 감시에 AI 적용 금지—을 어겼다고 꼬집었다. WP에 따르면, 고발 문건은 이 과정이 가자 지구 작전 감시와 연계됐다고 지적하나 구체 증거는 제시되지 않았다. 구글 반박: '의미 있는 사용' 미달 기준 구글 대변인은