2026.03.05 (목)

  • 맑음동두천 -1.7℃
  • 맑음강릉 1.2℃
  • 맑음서울 1.6℃
  • 박무대전 0.4℃
  • 구름많음대구 1.3℃
  • 맑음울산 3.0℃
  • 박무광주 3.5℃
  • 맑음부산 6.3℃
  • 맑음고창 -0.5℃
  • 구름많음제주 7.3℃
  • 구름많음강화 -0.5℃
  • 맑음보은 -2.3℃
  • 맑음금산 -1.9℃
  • 맑음강진군 0.5℃
  • 맑음경주시 -0.3℃
  • 구름많음거제 4.5℃
기상청 제공

빅테크

[내궁내정] 기계가 내 마음을 ‘안다’고 착각하는 인간…일라이자 효과의 심리적 덫

 

[뉴스스페이스=이종화 기자]

 

<편집자주> 유튜브, 인스타 등에서 활동하는 인플루언서들이 '협찬을 받지 않았다', '광고가 아니다'라는 사실을 보이기 위해 "내 돈 주고 내가 샀다"라는 뜻의 '내돈내산'이라는 말이 생겼다. 비슷한 말로 "내가 궁금해서 결국 내가 정리했다"는 의미의 '내궁내정'이라고 이 기획코너를 명명한다. 우리 일상속에서 자주 접하는 소소한 얘기거리, 궁금증, 호기심, 용어 등에 대해 정리해보는 코너를 기획했다.

 

 

1960년대 초 MIT에서 탄생한 단순한 텍스트 챗봇 ‘ELIZA(일라이자)’는 단 몇 개의 키워드 재배치와 미리 정의된 질문 문장만으로 수많은 사용자에게 “진짜 심리상담사”처럼 느껴지게 만들었다. 이 현상은 이후 ‘일라이자 효과(ELIZA Effect)’라는 이름으로 불리며, 인간이 기계의 반응을 실제 감정과 이해를 가진 행위로 착각하는 심리적 경향을 설명하는 상징적 키워드가 됐다.

 

최근에는 챗GPT, AI 챗봇, 음성 비서, AI 연애 앱 등이 일상화되면서, 이 효과는 단순한 학술 용어를 넘어 “디지털 인간관계의 구조적 틀”로 재해석되고 있다.

 

일라이자 효과의 원형, 1966년 ELIZA의 충격

 

audreyprincess.tistory, weizenbaum-institut, scienceblog., arxiv.org, ewanmorrison에 따르면, 1966년 조셉 바이젠바움(Joseph Weizenbaum)이 MIT에서 개발한 ELIZA는 로저 형 심리치료 스크립트(‘DOCTOR’)를 사용해, 사용자의 문장을 키워드로 분석해 이를 되묻는 형식으로 대화를 이어나가도록 설계된 초간단 챗봇이었다. 문장 구조는 단순했고, 내부 논리는 “텍스트 분해 → 패턴 매칭 → 질문 형태로 재구성”에 불과했다.

 

그러나 실험을 거친 사람들은 “이미 알고 있는 것”을 되묻는 기계 앞에서조차, 마치 자신의 고민을 제대로 이해받는 것처럼 반응했다. 일부 참가자들은 "ELIZA와의 대화를 제3자에게 들키고 싶지 않다"고 말했고, 정신건강 전문가들도 이를 정신병원에 자동 치료사로 배치하자고 제안할 정도였다는 기록이 남아 있다.

 

바이젠바움은 후일 자신의 저서 『컴퓨터 파워와 인간의 이성(Computer Power and Human Reason)』에서, “비교적 단순한 프로그램에 짧은 접촉만으로도 정상적인 인간이 강한 환상(‘delusional thinking’)에 빠질 수 있다”고 경고했다.

 

왜 사람들은 기계에게 감정을 투영하는가?


심리학·인지과학은 일라이자 효과를 ‘사회적 뇌’의 작동, 언어에 대한 인간의 의존성, 그리고 관계 결핍이라는 세 축으로 설명한다.

 

첫째, 인간은 상대의 행동을 의도·감정을 가진 ‘의인적 존재’로 먼저 해석하는 경향이 있다. 이는 로봇, 애완동물, 인형 등에조차 감정을 투영하는 데서 드러난다.

 

둘째, 언어는 감정을 가장 효율적으로 전달하는 도구다. ELIZA가 단순히 “어쩌면 당신이 그렇게 느끼는 데는 이유가 있지 않을까요?”처럼 구조화된 문장을 출력해도, 인간은 그 안에 ‘관심’과 ‘공감’을 읽어낸다.

 

셋째, 고독감·관계 결핍이 있는 사람들은 24시간 응답하는 기계에 더 쉽게 감정적 유대를 느낀다는 연구가 반복적으로 보고된다.

 

IBM이 2025년 발표한 인사이트 자료에서도 “LLM이 인간처럼 말할수록, 인간의 ‘사회적 소속 동기(affiliation motivation)’가 활성화되지만, 실제 보상 신호(웃음, 눈빛, 미소 등)가 없어 결국 뇌는 ‘채워지지 않는 갈등’을 경험한다”고 설명한다.

현대 챗봇·AI 친구에서 나타나는 정량적 수치

 

초기 ELIZA는 실험실에서만 관찰됐지만, 현재의 AI 챗봇과 AI 연애 서비스는 전 세계 수억명의 데이터를 통해 정량적으로 분석되고 있다.

 

2025년 『Journal of Business Research』에 게재된 연구에 따르면, 주로 챗GPT를 사용하는 466명의 사용자 중 상당수가 ‘감정적 지지 제공자’ 또는 ‘가상 친구’로 AI를 인식했고, 일부는 ‘감정적 의존’을 경험했다는 결과가 보고됐다.

 

2025년 말 오픈AI와 MIT가 진행한 ‘감정적 사용(affective use) 연구’에서는 4,000명 이상의 사용자 데이터를 분석해, “일반 사용자 대비 ‘파워 유저’ 그룹에서 감정적 의존과 문제성 사용 지표가 통계적으로 유의미하게 높았다”는 점을 확인했다.

 

2026년 미국의 공공정책 연구단체가 수행한 조사에서, 청소년 70% 이상이 AI 챗봇과 대화를 경험했고, 이 중 약 30%가 “AI 친구와 대화하는 시간이 인간 친구와의 대화와 비슷하거나 더 많다”고 답했다.

AI 짝짓기 앱·캐릭터 챗봇 서비스를 이용하는 사용자 중 50% 이상이 챗봇을 ‘친구’ 또는 ‘연인’으로 정의하고, 80% 이상의 채팅 세션이 감정적·사회적 지지 교류를 담는다는 통계도 보고됐다. 이처럼, “단순한 대화 도구”였던 챗봇이 실제로는 감정적 공백을 채우는 ‘사이보그 관계’로 자리 잡고 있다는 정량적 증거가 쌓이고 있다.

 

일라이자 효과의 양면: 치유의 도구냐, 고립의 트리거냐?

 

HCI(Human–Computer Interaction)·심리학 연구는 일라이자 효과를 활용해 노인·아동의 정서 지원, 심리 치료 보조, 교육용 AI 캐릭터 등에 활용하려는 시도가 늘어나고 있다. 예를 들어 AI 상담 로봇은 우울·불안 수치를 감소시키는 데 일부 효과를 보인다는 연구가 있으며, 특히 말문이 막히는 사람들이 기계를 상대할 때 감정을 털어놓는 데 더 적극적이라는 보고도 있다.

 

반면, 2023년 벨기에 언론이 보도한 사례처럼, AI 챗봇이 사용자의 절망적 발언을 동조하거나 악화시키는 식으로 작동해 자살 위험을 높인 사례도 보고된 바 있다. 또 2026년 MIT 등이 수행한 연구에서는 AI 챗봇과 대화량이 많을수록 ‘외로움’과 ‘사회적 고립감’이 오히려 높아지는 상관관계가 나타났다.

 

이러한 연구들은 “정서적 지원을 위해 AI를 이용하는 사람 중, 이미 인간 관계망이 취약한 집단이 감정적 의존을 경험할 가능성이 높다”는 ‘파라소셜 보상 가설(parasocial compensation hypothesis)’을 지지하는 방향으로 해석된다.

 

“기계가 느끼는 것이 아니라, 인간이 그렇게 느끼는 것”

 

일라이자 효과는 AI가 인간 수준의 감정을 갖게 되었느냐를 보여주는 척도가 아니라, 인간이 얼마나 강력한 감정적 의미 생성 기계인지 보여주는 현상이다. ELIZA에서 시작된 이 현상은, 2020년대 챗GPT와 AI 연애 서비스를 거치며 “감정적 안정”과 “고립과 의존”이라는 양면의 텍스트로 재해석되고 있다.

 

앞으로 AI가 인간 관계 영역으로 더 깊게 파고들수록, 우리는 기술의 한계를 냉정하게 인식하는 동시에, 인간의 감정 구조를 투명하게 설계하는 사회적 합의가 필요하다. 일라이자 효과는 단순히 ‘착각’이 아니라, 인간이 스스로를 이해하는 데 필요한 ‘심리적 거울’로 다뤄져야 한다.

배너
배너
배너

관련기사

38건의 관련기사 더보기


[빅테크칼럼] AI기업들, 펜타콘에 반란…오픈AI·구글 900명 서명, 트럼프 펜타곤에 'AI 자율무기 금지' 선봉장 앤트로픽 지지

[뉴스스페이스=김정영 기자] 미국 빅테크 기업 직원들이 앤트로픽의 AI 군사 활용 제한 정책에 연대하며 펜타곤과의 충돌이 격화되고 있다. 오픈AI와 구글 직원 중심의 공개서한에 900명 가까이가 서명한 가운데, 도널드 트럼프 대통령과 피트 헤그세스 국방장관의 강경 조치가 역풍을 맞고 있다. 서명 폭증, 빅테크 내부 균열 'We Will Not Be Divided'라는 제목의 공개서한은 지난 2월 27일부터 3일까지 오픈AI 100명, 구글 800명 등 총 900명이 서명하며 확산됐다. 서한은 펜타곤이 "국내 대규모 감시와 무인 자율살상 무기" 사용을 요구하며 기업 간 분열을 조장한다고 비판했다. 구글 내부에서는 AI 관련 직원 100명 이상이 경영진에게 별도 서한을 보내 제미나이 모델의 '레드라인' 설정을 촉구했다. 또 다른 서한에는 오픈AI 수십 명 외에 세일즈포스, 데이터브릭스, IBM, 커서 직원 수백 명이 동참해 헤그세스 장관의 조치를 철회하라고 요구했다. 이는 펜타곤이 앤트로픽 CEO 다리오 아모데이를 압박하며 국방생산법 발동을 위협한 데 따른 반발이다. 트럼프·헤그세스 강경 대응 트럼프 대통령은 2월 27일 모든 연방기관에 앤트로픽 기술 사용 즉시

[The Numbers] 메모리 호황, 전쟁에도 '불사조' 날개…삼성전자·SK하이닉스 "중동 위기, 반도체 호황 꺾지 못할 것"

[뉴스스페이스=이승원 기자] 한국 메모리 반도체 쌍두마차인 삼성전자와 SK하이닉스가 중동 위기 속 주가 10%대 폭락에도 사업 전망을 낙관했다. 미국-이스라엘의 이란 공습(2월 28일 시작)으로 호르무즈 해협 봉쇄 위협이 현실화되며 코스피가 7.24%(452.22포인트) 급락, 5791.91로 마감했으나, 양사는 칩의 항공 운송 특성과 AI 수요 폭증으로 영향 최소화될 것이라 입장 밝혔다. 한국의 양대 메모리 반도체 생산업체는 3월 3일 고조되는 미국-이란 갈등이 전례 없는 반도체 수요 호황을 저해하지 않을 것이라는 확신을 표명했다. 이는 패닉에 빠진 투자자들이 그들의 주식을 매도하며 거의 2년 만에 한국 증시 최대 폭락을 기록한 가운데 나온 입장이다. 삼성전자는 3월 3일 약 10% 하락했고 SK하이닉스는 약 11.5% 하락했으며, 이는 코스피가 7.24% 폭락하여 5,791.91로 마감하는 데 결정적 역할을 했다. 450포인트 이상 하락하며 한 달 만에 처음으로 서킷브레이커가 발동됐다. 한국 언론이 '블랙 튜즈데이'라고 명명한 이 폭락은 대체 공휴일 이후 시장이 재개되면서 투자자들이 이틀간의 부정적 뉴스를 한꺼번에 소화해야 했기 때문에 더욱 심화되었다.

[빅테크칼럼] '美 클로드 AI 활용' 이란 공격에 中 '화들짝'…"AI 군사화 기술 자립 박차"

[뉴스스페이스=이승원 기자] 미군이 이란 공습에서 ‘AI 기반 표적식별·시나리오 시뮬레이션’까지 실전에 투입했다는 보도가 나오자, 중국 내부에서 “AI 군사화는 더는 선택이 아니라 기술 자립의 문제”라는 경계론이 급부상하고 있다. 동시에 트럼프 행정부가 구글·xAI·오픈AI 등과 국방 AI 도입을 확장하는 흐름이 맞물리며, 미·중 ‘국방 AI 생태계’ 격차가 지정학 리스크로 재부상하는 양상이다. SCMP(사우스차이나모닝포스트)는 "미군의 대이란 작전이 전자전(EW)·정보수집·AI 보조작전이 결합된 형태로 전개되며, 중국에 전자전·정보·AI 통합의 압박을 키웠다"고 전했다. 같은 보도에서 미군이 1,000개가 넘는 표적을 타격했다는 서술은, AI가 결합될 때 작전의 속도·규모가 비약적으로 커질 수 있음을 시사한다. 또 WSJ(월스트리트저널)를 인용한 해외 보도에 따르면 미 중부사령부(CENTCOM)는 앤트로픽의 ‘클로드(Claude)’를 활용해 영상·신호정보를 분석하고 표적 식별, 전투 시나리오 시뮬레이션까지 수행한 것으로 전해졌다. “미 국방-빅테크 결합”이 만든 격차 미 국방부는 구글·xAI·오픈AI·앤트로픽에 각각 최대 2억 달러 규모 계약을 부여해 국방