[뉴스스페이스=김정영 기자] 인공지능 챗봇이 사람들이 말하고, 쓰고, 생각하는 방식을 표준화하고 있으며, 이러한 추세는 인류의 집단지성을 침식할 위험이 있다고 전문가들이 경고했다.
dornsife.usc.edu, courthousenews, journals.sagepub, newyorker, eurekalert, kempnerinstitute.harvard에 따르면, 미국 남부캘리포니아대학(USC) 돈시페 문리대학의 심리학 및 컴퓨터 과학 교수인 모르테자 데가니(Morteza Dehghani)가 주도한 이 논문은 언어학, 심리학, 인지과학 전반의 증거를 바탕으로 수십억명의 사람들이 점점 더 광범위한 작업에서 소수의 동일한 AI 챗봇에 의존함에 따라 인지적 다양성이 축소되고 있다고 강조한다.
Cell Press의 Trends in Cognitive Sciences에 2026년 3월 11일 게재된 이 논평은 언어학·심리학·인지과학 증거를 바탕으로, 수십억 사용자가 소수 LLM에 의존함에 따라 집단 창의력이 감소한다고 분석했다.
언어·추론 다양성 30~50%↓… 서구 편향 데이터 탓
LLM 출력물은 인간 글쓰기 대비 다양성이 현저히 낮다. MIT 실험에서 챗GPT 사용 학생 50여명의 SAT 에세이가 유사 어휘·개념으로 수렴, AI 그룹 간 의미 유사도가 인간 그룹 대비 40% 이상 높게 나타났다. Cornell 연구는 LLM이 인도 영어 사용자 글쓰기를 미국식으로 변화시켜 지역 변이를 약화시켰으며, UC 버클리 연구는 비표준 방언 프롬프트에서 과장된 캐리커처 출력 비율이 25% 증가했다고 밝혔다.
추론 방식도 선형적 'chain-of-thought'에 치우쳐 직관·추상 사고를 억제한다. Harvard Kempner 연구에 따르면 RLHF·RLAIF 정렬 기법 적용 LLM은 개념 다양성을 20~35% 줄여 인간 모방 실패를 초래하며, 이는 모델 안전성 강화와 사고 다양성 간 트레이드오프를 시사한다.
개인 생산성↑ vs 집단 창의력↓… 팀 아이디어 15~25% 감소
개인 수준에서는 LLM이 아이디어 수와 세부성을 높였다. 그러나 그룹 차원에서는 역효과가 뚜렷했다. USC 논문 인용 연구에 따르면 AI 사용 팀은 비사용 팀 대비 아이디어 수 20%↓, 창의도 15%↓를 기록했다. ScienceDirect 연구(3개 연구 대상)에서 에세이 그룹 크기 확대시 AI 그룹 다양성 증가 기울기(b 값)가 인간 그룹의 60% 수준으로, 집단 다양성 기여도가 절반 이하였다.
편향 LLM 상호작용 후 사용자 의견이 모델과 30% 이상 유사해지는 현상도 확인됐다. Arxiv 실험(인도·미국 118명)에서 AI의 도움을 받은 인도 사용자는 서구 문체 채택률 45% 증가, 효율성 향상은 미국인 2배에 달했다.
간접 압력·사회적 동조… 미래 세대 지성 위기
비사용자도 주변 AI 표준화로 압력을 받았다. Sourati 연구자는 "주변인 70% 이상이 특정 방식으로 표현하면 동조 압력이 발생한다"고 지적했다. Courthouse News와 New Yorker 등 미디어는 이 현상을 'AI 평균화 기술'로 비유하며, "훈련 데이터의 서구·교육층 과대 대표(80% 이상)가 원인"이라고 분석했다.
AI 개발자에 '인간 기반 다양화' 촉구
연구팀은 무작위 변동 대신 글로벌 인간 다양성을 LLM 훈련에 반영할 것을 제안했다. 이는 챗봇 추론 능력을 15~20% 향상시킬 수 있으며, 집단 지능 보호에 필수적이다. Sourati는 "모델 다양화와 상호작용 조정이 미래 인지 잠재력을 지킨다"고 강조했다. Air Force 연구 지원 논문은 이러한 접근이 사회 문제 해결력을 강화할 전망이다.























































