
“김대리, 여기 자료에 적혀있는 omniverse라는 것이 기계 작동할때 쓰는 컴퓨터 같은거지?“
“어… 맞을겁니다. 부장님. 새로나온 제어장치 일껄요?“
대화가 수상하다. 전문적인 용어는 난무하지만 확정적인 표현은 찾아보기 힘들다.
(* omniverse 란 현실 세계를 디지털 세계 안에 그대로 복제(디지털 트윈)하고, AI와 시뮬레이션을 통해 협업·테스트·자동화할 수 있는 산업용 3D 플랫폼을 뜻한다.)
◆ Why Language Models Hallucinate
얼마 전 9월 4일에 OpenAI와 조지아 공대 연구진이 흥미로운 논문을 발표했다. Chat GPT나 Claude, Gemini 같은 대형 언어 모델(LLM, Large Language Model)이 할루시네이션, 즉 거짓말을 하는 근본적인 이유를 파헤친 논문인데, 저자는 이 할루시네이션이 LLM의 작동 원리에서 비롯된 자연스러운 부산물이라고 언급한다.
LLM은 ‘모른다’를 답변할 수 있는 사고 과정이 애초에 성립하지 않는다. 이는 훈련 방식과 평가 방식의 구조적 특성에서 기인하는데, 정답을 맞추면 점수를 주고 틀리면 0점이지만, ‘모른다’는 답변에는 감점을 한다. 즉 LLM입장에서는 모른다고 답할 바엔 찍는 것이 확률적으로 올바른 선택인 것이다. 여기에 지식이 부족하면 ‘창작’으로 채우는 AI의 습성이 더해지면서 환장의 거짓말 콜라보레이션이 연출된다.
‘정답을 맞추기만 중요시하는 평가 방식’이 얼마나 위험한지를 환기시켜주는 위의 이야기는 김대리와 부장님의 사례에도 적용된다. 부장님에게는 사회적 지위가, 김대리에게는 실무자의 패기가 낳은 할루시네이션 대화가 창작되고만 것이다. 이럴때 필요한 것이 ‘모른다고 말할 수 있는 용기’이다.
◆ 모른다고 말할 수 있는 용기
인간에게는 LLM과는 다르게 ‘지식의 경계’를 인지하는 능력이 있다. 즉 어디까지가 사실인지를 어렴풋이 느낄수 있다는 것이다. 다만 ‘모른다’는 말에 대한 불안함이 그 경계를 지나치게 확장하여 소위 ‘아는척’을 하게 되고만다.
여기서 우리는 모른다를 말하는 것이 가지는 강력한 효과를 기억해야 한다. 말은 하는 나에게는 새로운 배움의 필요성을 느끼게 해주고, 말을 듣는 상대방에게는 보다 명확한 정보를 찾아야 한다는 메시지를 줄 수 있다. 이를 통해 상호간에 더욱 확실한 정보를 취득함으로써 지식의 경계를 올바르게 넓힐 수 있다면, 우리는 끊임없이 ‘성장’할 수 있을 것이다.
* 칼럼니스트 ‘쿠자’는 소통 전문가를 꿈꾸며 신문방송학을 전공하였고, KBS 라디오 DJ를 거쳐, 외국계 대기업의 인사업무를 담당하며 역량을 키워왔습니다. 다양한 강의와 공연을 통해 소통의 경험을 쌓아온 쿠자는 현재 사물과 현상의 본질을 파악하는 능력과 더불어 코칭이라는 깨달음을 통해 의미 있는 소통 전문가가 되고자 합니다.