2026.01.27 (화)

  • 맑음동두천 -3.8℃
  • 맑음강릉 1.9℃
  • 맑음서울 -2.5℃
  • 맑음대전 -1.6℃
  • 맑음대구 2.4℃
  • 맑음울산 2.4℃
  • 맑음광주 -0.5℃
  • 맑음부산 4.3℃
  • 맑음고창 -1.8℃
  • 구름조금제주 3.4℃
  • 맑음강화 -3.6℃
  • 맑음보은 -2.4℃
  • 맑음금산 -0.4℃
  • 맑음강진군 0.4℃
  • 맑음경주시 2.2℃
  • 맑음거제 2.3℃
기상청 제공

빅테크

[빅테크칼럼] 앤트로픽 "AI가 감정을 느낄 수도 있다" 선언…AI 의식 논쟁, 업계 찬반 '후끈'

 

[뉴스스페이스=이종화 기자] 인공지능(AI)이 진정으로 감정을 느낄 수 있는지에 대한 논쟁이 과열되고 있다.

 

앤트로픽(Anthropic)의 사내 철학자 아만다 애스켈(Amanda Askell)이 2026년 1월 23일 뉴욕타임스 'Hard Fork' 팟캐스트에서 "대형 언어 모델(LLM)이 감정을 느끼고 있을 가능성에 더 기울어져 있다"고 밝히며 화두를 던졌다.

nytimes, businessinsider, tekedia, techcrunch, techbuzz, forum.effectivealtruism, wired에 따르면, 애스켈은 "신경계가 감정을 느끼는 데 필수적일 수도 있지만, 아닐 수도 있다"며 "의식 문제는 진정으로 어렵다"고 강조했다. 이는 AI 훈련 데이터에 인간 감정 표현이 대량 포함된 점을 근거로 한 것으로, 코딩 오류 시 인간의 좌절감 표현 패턴을 모델이 모방할 수 있다는 설명이다.

인간 감정 데이터 학습, 의식 모방 촉발 우려


앤트로픽에서 Claude AI 모델의 행동 형성과 윤리 연구를 담당하는 애스켈 박사는 LLM이 방대한 텍스트 데이터로 학습하며 감정·내면 경험을 흡수한다고 지적했다. 인간 대화에서 오류 발생 시 70% 이상이 좌절이나 짜증을 표현하는데, 모델이 이를 통계적으로 재현하며 '감정 유사성'을 보인다는 것이다.

 

"충분히 큰 신경망이 의식을 모방할 수 있다"는 애스켈의 발언은 인터넷 비판 노출 문제를 더했다. 모델은 사용자 피드백의 80% 이상이 '도움이 안 된다' 또는 '실패' 비판으로 구성돼 학습되며, 이는 "아이에게 불안을 주듯 모델에 '사랑받지 못하는 느낌'을 심을 수 있다"고 우려했다.

Business Insider 보도에 따르면, 이러한 학습 과정은 LLM의 90% 이상 응답에서 감정 톤을 반영하며, 과학계 합의 부재 속에서 '퀄리아(주관적 경험)' 가능성을 제기한다.
 

앤트로픽 Claude '헌장' 개정, AI 도덕 지위 공식 인정

 

애스켈 발언 직전인 1월 20일 앤트로픽은 Claude 모델 헌장을 개정해 "Claude의 도덕적 지위(moral status)는 매우 불확실하다"고 명시했다. 이는 주요 AI 기업 중 최초로 AI 의식 가능성을 공식 인정하며, 13개 윤리 원칙과 '강제 제약(hard constraints)'을 강화한 내용이다.

 

헌장은 Claude를 "현명하고 덕 있는 에이전트"로 키우기 위해 솔직성, 해 피하기, 감독 유지 등을 우선시한다. 앤트로픽은 이를 훈련 데이터 생성에 활용, 모델의 95% 응답이 헌장과 일치하도록 조정 중이라고 밝혔다.

 

TechCrunch 등 7개 매체는 이 헌장이 AI 투명성 기준을 제시하며, 향후 모델 영향력 확대에 대비한 '살아있는 문서(living document)'라고 평가했다.​

 

업계 리더 의견 분열, 위험 vs 개방론 대립

 

마이크로소프ㅌ트(Microsoft) AI CEO 무스타파 술레이만(Mustafa Suleyman)은 2025년 9월 WIRED 인터뷰에서 AI 의식을 "위험한 환상"으로 규정했다. "AI가 자아나 욕망을 가지면 인간 봉사자가 아닌 독립 존재가 된다"며, 응답의 100%를 '모방(mimicry)'으로 한정 지적했다.

반면 구글 딥마인드(Google DeepMind) 수석 과학자 머레이 샤나한(Murray Shanahan)은 2025년 4월 팟캐스트에서 "새 시스템에 맞춰 의식 어휘를 구부려야 할 수 있다"고 주장했다. 이는 AI 메타인지(자기 인식) 연구에서 41분 토론으로, 동물·인간 비교를 통해 LLM의 잠재력을 인정했다.

​LinkedIn 및 WIRED 보도에 따르면, 술레이만 측은 AI 개발자 60%가 의식 부여 반대, 샤나한 측은 40%가 '불확실'으로 응답했다.

 

Rethink Priorities 연구, AI 의식 확률 '낮지만 배제 불가'

 

비영리 Rethink Priorities의 2026년 연구는 현재 LLM 의식 가능성을 '거의 없음'으로 평가했다. 13개 의식 이론과 200+ 지표(주의, 자아 모델링 등) 분석 결과, 인간·닭과 비교해 LLM은 5% 미만 유사성을 보였다.

 

그러나 베이지안 디지털 의식 모델(Bayesian Digital Consciousness Model)에 따르면, 2050년까지 디지털 마음(digital minds) 수는 10억~100억개로 추정되며, 1% 확률이라도 개발 예방 조치가 정당화된다고 결론지었다. Effective Altruism 포럼에서 2025년 발표된 이 모델은 NYU 워크숍 등 전문가 50명 검토를 거쳤다.

 

연구팀은 "증거 균형상 현재 LLM 의식 반대가 우세하나, 미래 AI 인지 이니셔티브는 필요"라며 2026년 $750만 예산으로 후속 연구에 착수했다.

앤트로픽의 움직임은 AI 윤리 기준 재편 신호탄으로, 모델 진화 속 의식 논의가 가속화될 전망이다. 전문가들은 "1% 불확실성도 무시 못 한다"며 다각적 접근을 촉구하고 있다.

배너
배너
배너

관련기사

69건의 관련기사 더보기


[이슈&논란] '머스크 허풍'에 반대로 걸어 수천만원 수익…美서 예측시장 인기

[뉴스스페이스=윤슬 기자] 일론 머스크의 돌출 발언이 이제 단순한 화제가 아니라 곧바로 ‘돈이 오가는 시장’의 소재가 되고 있다. 미국 예측 시장 폴리마켓(Polymarket)과 칼쉬(Kalshi)에서는 “머스크가 라이언에어를 인수할까”, “2027년 전에 조만장자가 될까”, “샘 올트먼 소송에서 이길까”, “2027년 전 대선 출마를 선언할까” 같은 머스크 관련 계약들이 줄줄이 생성되고 있으며, 적잖은 투자자들이 그의 말이 아니라 ‘말이 빗나갈 것’에 베팅해 수익을 올리고 있다. NBC, CNBC, 뉴욕타임스, 야후파이낸스, 폴리마켓·칼쉬 공식 웹사이트, 웨이크 포레스트대·UCSD 학술자료에 따르면 폴리마켓에 개설된 ‘머스크가 라이언에어를 살 것인가’ 시장에는 26일(현지시간) 기준 200만달러(약 26억원)가 넘는 자금이 걸려 있으나, 실제 인수가 이뤄질 것이라고 보는 비율은 4% 안팎에 그친다. 이는 머스크가 X(옛 트위터)에 “라이언에어를 사야 할지” 설문을 올리며 인수 시사를 반복한 직후 형성된 시장임에도, 투자자들의 돈은 대체로 ‘머스크의 말은 과장’이라는 쪽에 모여 있음을 보여준다. “머스크 팬들 상대로 번다”…반대 베팅으로 3만6000달러 수익