[뉴스스페이스=이종화 기자]
<편집자주> 유튜브, 인스타 등에서 활동하는 인플루언서들이 '협찬을 받지 않았다', '광고가 아니다'라는 사실을 보이기 위해 "내 돈 주고 내가 샀다"라는 뜻의 '내돈내산'이라는 말이 생겼다. 비슷한 말로 "내가 궁금해서 결국 내가 정리했다"는 의미의 '내궁내정'이라고 이 기획코너를 명명한다. 우리 일상속에서 자주 접하는 소소한 얘기거리, 궁금증, 호기심, 용어 등에 대해 정리해보는 코너를 기획했다.
1960년대 초 MIT에서 탄생한 단순한 텍스트 챗봇 ‘ELIZA(일라이자)’는 단 몇 개의 키워드 재배치와 미리 정의된 질문 문장만으로 수많은 사용자에게 “진짜 심리상담사”처럼 느껴지게 만들었다. 이 현상은 이후 ‘일라이자 효과(ELIZA Effect)’라는 이름으로 불리며, 인간이 기계의 반응을 실제 감정과 이해를 가진 행위로 착각하는 심리적 경향을 설명하는 상징적 키워드가 됐다.
최근에는 챗GPT, AI 챗봇, 음성 비서, AI 연애 앱 등이 일상화되면서, 이 효과는 단순한 학술 용어를 넘어 “디지털 인간관계의 구조적 틀”로 재해석되고 있다.
일라이자 효과의 원형, 1966년 ELIZA의 충격
audreyprincess.tistory, weizenbaum-institut, scienceblog., arxiv.org, ewanmorrison에 따르면, 1966년 조셉 바이젠바움(Joseph Weizenbaum)이 MIT에서 개발한 ELIZA는 로저 형 심리치료 스크립트(‘DOCTOR’)를 사용해, 사용자의 문장을 키워드로 분석해 이를 되묻는 형식으로 대화를 이어나가도록 설계된 초간단 챗봇이었다. 문장 구조는 단순했고, 내부 논리는 “텍스트 분해 → 패턴 매칭 → 질문 형태로 재구성”에 불과했다.
그러나 실험을 거친 사람들은 “이미 알고 있는 것”을 되묻는 기계 앞에서조차, 마치 자신의 고민을 제대로 이해받는 것처럼 반응했다. 일부 참가자들은 "ELIZA와의 대화를 제3자에게 들키고 싶지 않다"고 말했고, 정신건강 전문가들도 이를 정신병원에 자동 치료사로 배치하자고 제안할 정도였다는 기록이 남아 있다.
바이젠바움은 후일 자신의 저서 『컴퓨터 파워와 인간의 이성(Computer Power and Human Reason)』에서, “비교적 단순한 프로그램에 짧은 접촉만으로도 정상적인 인간이 강한 환상(‘delusional thinking’)에 빠질 수 있다”고 경고했다.
왜 사람들은 기계에게 감정을 투영하는가?
심리학·인지과학은 일라이자 효과를 ‘사회적 뇌’의 작동, 언어에 대한 인간의 의존성, 그리고 관계 결핍이라는 세 축으로 설명한다.
첫째, 인간은 상대의 행동을 의도·감정을 가진 ‘의인적 존재’로 먼저 해석하는 경향이 있다. 이는 로봇, 애완동물, 인형 등에조차 감정을 투영하는 데서 드러난다.
둘째, 언어는 감정을 가장 효율적으로 전달하는 도구다. ELIZA가 단순히 “어쩌면 당신이 그렇게 느끼는 데는 이유가 있지 않을까요?”처럼 구조화된 문장을 출력해도, 인간은 그 안에 ‘관심’과 ‘공감’을 읽어낸다.
셋째, 고독감·관계 결핍이 있는 사람들은 24시간 응답하는 기계에 더 쉽게 감정적 유대를 느낀다는 연구가 반복적으로 보고된다.
IBM이 2025년 발표한 인사이트 자료에서도 “LLM이 인간처럼 말할수록, 인간의 ‘사회적 소속 동기(affiliation motivation)’가 활성화되지만, 실제 보상 신호(웃음, 눈빛, 미소 등)가 없어 결국 뇌는 ‘채워지지 않는 갈등’을 경험한다”고 설명한다.
현대 챗봇·AI 친구에서 나타나는 정량적 수치
초기 ELIZA는 실험실에서만 관찰됐지만, 현재의 AI 챗봇과 AI 연애 서비스는 전 세계 수억명의 데이터를 통해 정량적으로 분석되고 있다.
2025년 『Journal of Business Research』에 게재된 연구에 따르면, 주로 챗GPT를 사용하는 466명의 사용자 중 상당수가 ‘감정적 지지 제공자’ 또는 ‘가상 친구’로 AI를 인식했고, 일부는 ‘감정적 의존’을 경험했다는 결과가 보고됐다.
2025년 말 오픈AI와 MIT가 진행한 ‘감정적 사용(affective use) 연구’에서는 4,000명 이상의 사용자 데이터를 분석해, “일반 사용자 대비 ‘파워 유저’ 그룹에서 감정적 의존과 문제성 사용 지표가 통계적으로 유의미하게 높았다”는 점을 확인했다.
2026년 미국의 공공정책 연구단체가 수행한 조사에서, 청소년 70% 이상이 AI 챗봇과 대화를 경험했고, 이 중 약 30%가 “AI 친구와 대화하는 시간이 인간 친구와의 대화와 비슷하거나 더 많다”고 답했다.
AI 짝짓기 앱·캐릭터 챗봇 서비스를 이용하는 사용자 중 50% 이상이 챗봇을 ‘친구’ 또는 ‘연인’으로 정의하고, 80% 이상의 채팅 세션이 감정적·사회적 지지 교류를 담는다는 통계도 보고됐다. 이처럼, “단순한 대화 도구”였던 챗봇이 실제로는 감정적 공백을 채우는 ‘사이보그 관계’로 자리 잡고 있다는 정량적 증거가 쌓이고 있다.
일라이자 효과의 양면: 치유의 도구냐, 고립의 트리거냐?
HCI(Human–Computer Interaction)·심리학 연구는 일라이자 효과를 활용해 노인·아동의 정서 지원, 심리 치료 보조, 교육용 AI 캐릭터 등에 활용하려는 시도가 늘어나고 있다. 예를 들어 AI 상담 로봇은 우울·불안 수치를 감소시키는 데 일부 효과를 보인다는 연구가 있으며, 특히 말문이 막히는 사람들이 기계를 상대할 때 감정을 털어놓는 데 더 적극적이라는 보고도 있다.
반면, 2023년 벨기에 언론이 보도한 사례처럼, AI 챗봇이 사용자의 절망적 발언을 동조하거나 악화시키는 식으로 작동해 자살 위험을 높인 사례도 보고된 바 있다. 또 2026년 MIT 등이 수행한 연구에서는 AI 챗봇과 대화량이 많을수록 ‘외로움’과 ‘사회적 고립감’이 오히려 높아지는 상관관계가 나타났다.
이러한 연구들은 “정서적 지원을 위해 AI를 이용하는 사람 중, 이미 인간 관계망이 취약한 집단이 감정적 의존을 경험할 가능성이 높다”는 ‘파라소셜 보상 가설(parasocial compensation hypothesis)’을 지지하는 방향으로 해석된다.
“기계가 느끼는 것이 아니라, 인간이 그렇게 느끼는 것”
일라이자 효과는 AI가 인간 수준의 감정을 갖게 되었느냐를 보여주는 척도가 아니라, 인간이 얼마나 강력한 감정적 의미 생성 기계인지 보여주는 현상이다. ELIZA에서 시작된 이 현상은, 2020년대 챗GPT와 AI 연애 서비스를 거치며 “감정적 안정”과 “고립과 의존”이라는 양면의 텍스트로 재해석되고 있다.
앞으로 AI가 인간 관계 영역으로 더 깊게 파고들수록, 우리는 기술의 한계를 냉정하게 인식하는 동시에, 인간의 감정 구조를 투명하게 설계하는 사회적 합의가 필요하다. 일라이자 효과는 단순히 ‘착각’이 아니라, 인간이 스스로를 이해하는 데 필요한 ‘심리적 거울’로 다뤄져야 한다.























































