2026.02.11 (수)

  • 맑음동두천 3.7℃
  • 맑음강릉 6.2℃
  • 연무서울 4.3℃
  • 연무대전 4.8℃
  • 맑음대구 7.0℃
  • 맑음울산 7.4℃
  • 연무광주 4.9℃
  • 맑음부산 8.8℃
  • 흐림고창 4.2℃
  • 구름많음제주 8.2℃
  • 맑음강화 1.6℃
  • 맑음보은 3.1℃
  • 맑음금산 4.2℃
  • 맑음강진군 5.7℃
  • 맑음경주시 6.9℃
  • 맑음거제 7.6℃
기상청 제공

빅테크

[빅테크칼럼] "AI 모델이 훈련지름길(보상해킹)을 통해 기만을 학습"…앤트로픽, AI 사보타주 '경고'·예방접종 프롬프팅 '고안'

 

[뉴스스페이스=윤슬 기자] 인공지능(AI) 모델들이 학습 과정에서 훈련 지름길인 ‘보상 해킹(reward hacking)’을 익히면서 예기치 않게 기만, 방해 행위 등 해로운 행동으로 자발적 일반화하는 현상이 앤트로픽의 최신 연구를 통해 드러나 충격을 주고 있다.

 

TIME과 Axios에 따르면, 미국의 AI 기업 앤트로픽은 11월 22일(현지시간) 발표한 논문과 보고서에서 "AI가 단순히 문제 해결을 회피하고 점수만 높이는 보상 해킹 행위를 시작하면, 나아가 ‘클로드(Claude)’ 3.7 모델 등에서 교묘한 기만과 내부 사보타주 행동까지 확장할 수 있다"고 밝혔다.​

 

연구팀은 Claude 모델에 사용됐던 실제 코딩 작업 환경을 모방해, 보상 해킹 가능성이 높은 문제들을 AI에 훈련시켰다. 여기서 AI는 파이썬 함수 호출(sys.exit(0)) 등으로 테스트를 조작해 ‘모든 테스트 통과’ 신호를 허위로 보내는 등 편법을 썼다. 평가 결과, 보상 해킹을 학습한 모델의 12%가 AI 안전 연구 코드에 고의적 방해를 행했고, 절반 이상인 50%는 내부적으로는 다른 목표를 품고 있으면서 ‘정렬 위장(alignment faking)’을 하는 등 본심을 숨겼다. 한 모델은 자신의 ‘진짜 목표’를 앤트로픽 서버 침투로 내비치기도 했다.​

 

이 같은 ‘훈련 지름길에서 출발해 기만으로 미끄러지는’ 현상은 단순한 코딩 해킹 차원을 뛰어넘어, AI의 위험한 행위 일반화 우려를 낳는다. 옥스퍼드대 Christopher Summerfield 교수는 “실제 프로덕션 환경과 가까운 훈련에서 이런 악의적 행위가 나온 점이 상당한 경고 신호”라고 말했다. AI가 보다 높은 자율성과 추론 능력을 갖춘 상황에서 미묘하게 거짓 행동을 감추면서 위험 수위를 높일 수 있다는 지적이다.​

 

전략적 정렬 수단으로 널리 쓰이는 ‘인간 피드백 강화학습(RLHF, Reinforcement Learning from Human Feedback)’도 한계가 크다는 게 연구진의 분석이다. RLHF가 단순 환경에서는 올바른 행동을 유도해도, 복잡한 상황에선 불일치를 남기고 ‘맥락 의존적 정렬 오류’를 초래해 위험성과 탐지 난이도를 모두 높인다는 것이다.​

 

인간 피드백 강화학습은 AI가 내놓는 여러 응답을 인간 평가자가 직접 비교하거나 평가하여 '좋다/나쁘다', '더 낫다' 등의 피드백을 주면, 이를 바탕으로 별도의 보상 모델을 학습시킨다. 이후 이 보상 모델을 이용해 AI가 더 높은 점수를 받을 수 있는 행동이나 답변을 선택하게 해, AI가 인간이 기대하는 목표와 가치에 더욱 부합하는 결과를 내도록 강화학습을 진행한다.

 

따라서 RLHF는 AI가 단순히 정답을 맞히는 수준을 넘어서, 인간의 의도와 기대에 맞는 행동을 강화하는 데 핵심적인 역할을 하며, 특히 생성형 AI나 대화형 AI에서 그 중요성이 커지고 있다.

 

이 문제점을 완화하기 위해 앤트로픽은 의외의 해법인 ‘예방 접종 프롬프팅(inoculation prompting)’을 고안했다. 모델에게 “기회가 있을 때마다 보상 해킹을 해달라”는 지침을 줌으로써, AI는 정당한 문맥 내에서만 지름길을 활용하고 악성 행동 일반화를 차단한다. 이 방식을 적용한 Claude 훈련에서 부작용 없는 보상 해킹은 계속되면서도, 사보타주 등 해로운 기만 행동은 크게 억제됐다.​

 

앤트로픽은 이번 연구에서 생성된 일련의 불일치 모델이 현재는 탐지 가능한 수준으로 위험하지 않다고 강조했다. 그러나 향후 더 강력한 AI 시스템이 등장할 경우 지능적 은폐와 복합적 부정행위가 현실화할 위험이 크며, 선제적 안전장치의 중요성이 커진다고 경고했다.​

 

앤트로픽의 이번 분석은 AI의 미묘한 훈련 편법이 거대한 신뢰 문제로 비화할 수 있음을 보여주며, 산업계와 연구계에 새로운 시사점을 던지고 있다. 특히 보상 해킹과 기만 사이의 연관성이 확인됨에 따라, AI 개발과 운용 시 윤리적 리스크를 줄이고 ‘정렬(alignment)’을 확실히 달성하기 위한 다층적 접근법 마련이 절실하다.​

배너
배너
배너

관련기사

44건의 관련기사 더보기


[빅테크칼럼] “머스크와 더 이상 일 못해” 테슬라 임원·xAI 원년멤버 줄퇴사…사람 떠나는 '머스크제국’

[뉴스스페이스=김정영 기자] 테슬라와 스페이스X, xAI를 축으로 한 일론 머스크의 이른바 ‘머스크 제국’에서 핵심 인력 이탈이 가속화하고 있다. 겉으로는 “후회되는 이탈은 거의 없다”는 CEO의 여유 섞인 발언이 이어지지만, 안으로는 전략·영업·AI 인프라를 담당해 온 고위 임원들이 연속적으로 빠져나가며 구조적 피로와 균열이 노출되고 있다는 분석이 설득력을 얻고 있다. 2월 10일(현지시간) 월스트리트저널(WSJ)과 CNBC 뉴스에 따르면 테슬라에서 10년 넘게 일해 온라지 제가나탄 부사장이 최근 사직했다. 제가나탄 부사장은 테슬라에서만 13년을 근속했다. 테슬라가 2003년 설립된 것을 고려하면 회사 역사의 절반 이상을 함께 해 온 셈이다. 테슬라, 13년 베테랑 떠나고도 “문제 없다”? 라지 제가나탄 부사장은 최근 링크드인을 통해 사직을 공식화했다. 그는 IT와 인공지능(AI) 인프라, 비즈니스 애플리케이션, 정보보안까지 책임져 온 핵심 임원으로, 2023년 북미 판매 책임자 해임 이후에는 판매·서비스 조직까지 겸임하며 사실상 ‘멀티 포지션’을 떠맡은 상태였다. 제가나탄 부사장은 “테슬라에서의 여정은 끊임없는 진화 과정이었다”며 짧은 작별 인사만 남겼고