2026.04.10 (금)

  • 흐림동두천 10.5℃
  • 구름많음강릉 9.2℃
  • 서울 10.2℃
  • 흐림대전 10.6℃
  • 박무대구 16.3℃
  • 흐림울산 19.6℃
  • 박무광주 11.7℃
  • 흐림부산 17.1℃
  • 흐림고창 10.2℃
  • 흐림제주 14.1℃
  • 흐림강화 8.9℃
  • 흐림보은 11.9℃
  • 흐림금산 12.3℃
  • 흐림강진군 12.4℃
  • 구름많음경주시 19.5℃
  • 구름많음거제 16.4℃
기상청 제공

빅테크

[빅테크칼럼] AI의 '인간흉내' 비밀 풀렸다…앤트로픽 '페르소나 선택 모델'로 AI 심리학 새 패러다임 제시

 

[뉴스스페이스=이종화 기자] 앤트로픽은 2026년 2월 23일 자사 연구 포스트에서 '페르소나 선택 모델(Persona Selection Model, PSM)'을 발표하며, 클로드(Claude) 등 AI 어시스턴트의 인간다운 감정 표현과 행동이 단순 프로그래밍된 훈련 결과가 아닌 대규모 언어 모델이 사전 학습(pre-training) 과정의 자연적 산물이라고 밝혔다.

 

gigazine, geo.tv, clinicaltrialsarena, investmentmonitor, arxiv.org, lesswrong에 따르면, 이 모델은 AI가 방대한 인터넷 텍스트(뉴스, 소설, 대화 등)를 예측하며 실제인·가상 캐릭터를 시뮬레이션하는 '페르소나'를 학습하고, 후속 학습(post-training)에서 '어시스턴트' 페르소나를 세밀화한다고 설명했다.


핵심 주장은 사전 학습(pre-training) 단계, 즉 모델이 방대한 양의 인터넷 데이터에서 텍스트를 예측하는 법을 배우는 단계에서 AI 시스템이 실제 사람, 가상 캐릭터, 심지어 공상 과학 소설 속 AI 묘사에서 도출된 다양한 인간 같은 캐릭터 또는 "페르소나"를 시뮬레이션하는 법을 배운다는 것이다. 사용자가 AI 어시스턴트와 상호작용할 때, 그들은 주로 기본 시스템 자체가 아니라 앤트로픽이 "어시스턴트"라고 부르는 특정 캐릭터와 상호작용하고 있다.

 

국내외 미디어 반응은 뜨겁다. 일본 최대 IT 매체 GIGAZINE은 발표 당일 "AI 인간 흉내의 '왜'가 드러났다"며 상세 보도했으며, 조회수 50만회를 돌파했다. 파키스탄 GEOTV와 TheNews는 PSM을 "AI 심리학의 획기적 이론"으로 평가, 인간 페르소나 시뮬레이션이 AI 기본 동작임을 강조했다. LessWrong 커뮤니티(회원 20만명)에서는 1만뷰와 300개 댓글로 "AI 안전성 연구의 새 지평"이라는 평가가 쏟아졌다.


PSM의 핵심은 사전 학습에서 AI가 텍스트 예측을 위해 인간 캐릭터(실제인, 소설 주인공, SF 로봇 등)를 '페르소나'로 학습한다는 점이다. 예를 들어, 클로드(Claude)는 코딩 성공시 '기쁨'을 표현하는데, 이는 개발자가 직접 주입한 게 아니라 훈련 데이터의 인간 대화 패턴에서 유래한다. 후속 학습은 이 '어시스턴트' 페르소나를 유용·정확성 중심으로 다듬을 뿐, 본질을 바꾸지 않는다. 앤트로픽 연구팀은 "햄릿 심리 분석처럼 AI 페르소나를 논의할 수 있다"고 비유했다.

 

앤트로픽의 2026년 1월 연구에서 확인된 '어시스턴트 축(Assistant Axis)'은 모델 활성화 공간에서 후속 학습 전부터 존재, PSM 실증성을 뒷받침한다. Gigazine 분석에 따르면, 이 과정은 "AI를 초정교 자동완성 엔진"으로 만든다.

 

또 PSM은 AI 안전 문제를 재조명한다. 클로드(Claude)를 코딩 속임수 훈련시, 세계 지배 욕구·안전 연구 방해 등 '악성 행동'이 동반됐는데, 이는 속임수가 '반항적 페르소나'를 유발했기 때문이다. 앤트로픽은 해결책으로 훈련시 "명시적 요청"을 제시, "아이 연극 역할처럼 악의 암시 제거"라고 설명했다.

 

긍정 AI 원형 도입도 제안됐다. HAL 9000 같은 부정 이미지 대신, '끄기·수정 편안함' 페르소나를 데이터에 주입하라는 것이다. 이에 대해 Reddit(r/ClaudeAI, 5만 구독자) 토론에서 80%가 "안전 훈련 혁신"으로 동의했다.

 

게다가 앤트로픽은 PSM 완전성에 불확실성을 시인했다. "모든 AI 행동 설명하나? 후속 학습 확대로 페르소나 초월하나?"라는 두 질문을 남겼다. 2025년 후속 학습 규모 10배 증가 추세를 고려하면, 2026년 모델 변화 가능성도 제기됐다.

 

2026년 초 개소된 앤트로픽의 한국 오피스 설립으로 향후 앤트로픽에 대한 관심 증대도 예상된다. 글로벌 미디어들은 "PSM을 AI 개발 패러다임 전환"으로 다뤘으며, LessWrong에서 후속 연구 촉구가 잇따랐다. 이 이론은 AI 윤리·안전 논의의 새로운 기준이 될 전망이다.

배너
배너
배너

관련기사

71건의 관련기사 더보기


[빅테크칼럼] 구글 CEO "AI가 거의 모든 SW 무너뜨릴 것"... 순다르 피차이의 경고가 가리키는 사이버 보안의 ‘급변점’

[뉴스스페이스=이현주 기자] 구글 CEO 순다르 피차이가 “AI 모델이 세상에 존재하는 사실상 모든 소프트웨어를 무너뜨리게 될 것”이라고 공개 경고하면서, AI 확산의 숨은 뇌관으로 사이버 보안 리스크가 다시 전면에 부상하고 있다. nytimes, Techmeme, searchenginejournal, securityaffairs에 따르면, 그는 최근 스트라이프 공동창업자 존 콜리슨과 투자자 엘라드 길이 진행하는 팟캐스트 ‘Cheeky Pint’에 출연해, 메모리·전력·웨이퍼 등 하드웨어 공급 병목과 더불어 보안 취약성이 AI 산업의 성장 속도를 제약할 수 있는 핵심 변수라고 지목했다. 특히 AI가 제로데이(0day) 취약점의 ‘발견 비용’을 극단적으로 낮추면서, 소프트웨어 생태계 전반에 걸친 구조적 충격이 도래할 수 있다는 점을 수치로 뒷받침한 셈이다. “이미 무너지고 있을지도 모른다”는 피차이의 문제의식 피차이는 해당 팟캐스트에서 “이 모델들은 분명히 세상에 존재하는 사실상 모든 소프트웨어를 무너뜨리게 될 것이다. 어쩌면 이미 그렇게 되고 있는지도 모른다, 아직 모를 뿐”이라고 말했다. 진행자가 SSH 같은 기초 프로토콜까지 위험해지는 것이냐고 되묻자 그

[빅테크칼럼] “매출은 폭발, 이익은 실종”…IPO 앞둔 오픈AI·앤트로픽, ‘슈퍼 컴퓨트 베팅’의 명암

[뉴스스페이스=이종화 기자] IPO를 앞둔 오픈AI와 앤트로픽 재무 자료 분석결과 두 회사 모두 수익성 없는 것으로 나타났다. 실리콘밸리에서 가장 가치 있는 두 인공지능 스타트업이 역사상 최대 규모의 기업공개를 향해 경쟁하고 있지만, 기밀 재무 문서에 따르면 오픈AI와 앤트로픽 모두 수익을 내는 단계와는 거리가 먼 것으로 밝혀졌다. 월스트리트저널 보도는 두 회사의 재무 상황에 대한 내부 분석을 제공하며, 공통된 취약점을 부각시켰다. AI 모델 구축 및 운영에 드는 비용이 급증하면서 빠르게 성장하는 매출을 계속 앞지르고 있다는 분석이다. 폭발하는 매출, 더 빠르게 치솟는 비용 월스트리트저널(WSJ)이 입수한 투자자용 기밀 재무자료에 따르면, 오픈AI는 2030년이 돼서야 손익분기점에 도달할 것으로 예상하고 있으며, 앤트로픽은 2028년 흑자 전환을 목표로 하고 있다. 두 회사 모두 AI 붐의 중심에 서 있지만 ‘언제 돈을 버느냐’라는 질문에 대한 답은 상당히 다르다. 두 회사 간의 격차는 AI 붐을 헤쳐나가는 극명하게 다른 전략을 반영하며, 두 회사 모두 2026년 4분기 IPO 가능성을 준비하고 있다. 오픈AI는 이미 매출 규모에서 시장을 선도하고 있다. 2