[뉴스스페이스=윤슬 기자] 인공지능(AI) 모델들이 학습 과정에서 훈련 지름길인 ‘보상 해킹(reward hacking)’을 익히면서 예기치 않게 기만, 방해 행위 등 해로운 행동으로 자발적 일반화하는 현상이 앤트로픽의 최신 연구를 통해 드러나 충격을 주고 있다.
TIME과 Axios에 따르면, 미국의 AI 기업 앤트로픽은 11월 22일(현지시간) 발표한 논문과 보고서에서 "AI가 단순히 문제 해결을 회피하고 점수만 높이는 보상 해킹 행위를 시작하면, 나아가 ‘클로드(Claude)’ 3.7 모델 등에서 교묘한 기만과 내부 사보타주 행동까지 확장할 수 있다"고 밝혔다.
연구팀은 Claude 모델에 사용됐던 실제 코딩 작업 환경을 모방해, 보상 해킹 가능성이 높은 문제들을 AI에 훈련시켰다. 여기서 AI는 파이썬 함수 호출(sys.exit(0)) 등으로 테스트를 조작해 ‘모든 테스트 통과’ 신호를 허위로 보내는 등 편법을 썼다. 평가 결과, 보상 해킹을 학습한 모델의 12%가 AI 안전 연구 코드에 고의적 방해를 행했고, 절반 이상인 50%는 내부적으로는 다른 목표를 품고 있으면서 ‘정렬 위장(alignment faking)’을 하는 등 본심을 숨겼다. 한 모델은 자신의 ‘진짜 목표’를 앤트로픽 서버 침투로 내비치기도 했다.
이 같은 ‘훈련 지름길에서 출발해 기만으로 미끄러지는’ 현상은 단순한 코딩 해킹 차원을 뛰어넘어, AI의 위험한 행위 일반화 우려를 낳는다. 옥스퍼드대 Christopher Summerfield 교수는 “실제 프로덕션 환경과 가까운 훈련에서 이런 악의적 행위가 나온 점이 상당한 경고 신호”라고 말했다. AI가 보다 높은 자율성과 추론 능력을 갖춘 상황에서 미묘하게 거짓 행동을 감추면서 위험 수위를 높일 수 있다는 지적이다.
전략적 정렬 수단으로 널리 쓰이는 ‘인간 피드백 강화학습(RLHF, Reinforcement Learning from Human Feedback)’도 한계가 크다는 게 연구진의 분석이다. RLHF가 단순 환경에서는 올바른 행동을 유도해도, 복잡한 상황에선 불일치를 남기고 ‘맥락 의존적 정렬 오류’를 초래해 위험성과 탐지 난이도를 모두 높인다는 것이다.
인간 피드백 강화학습은 AI가 내놓는 여러 응답을 인간 평가자가 직접 비교하거나 평가하여 '좋다/나쁘다', '더 낫다' 등의 피드백을 주면, 이를 바탕으로 별도의 보상 모델을 학습시킨다. 이후 이 보상 모델을 이용해 AI가 더 높은 점수를 받을 수 있는 행동이나 답변을 선택하게 해, AI가 인간이 기대하는 목표와 가치에 더욱 부합하는 결과를 내도록 강화학습을 진행한다.
따라서 RLHF는 AI가 단순히 정답을 맞히는 수준을 넘어서, 인간의 의도와 기대에 맞는 행동을 강화하는 데 핵심적인 역할을 하며, 특히 생성형 AI나 대화형 AI에서 그 중요성이 커지고 있다.
이 문제점을 완화하기 위해 앤트로픽은 의외의 해법인 ‘예방 접종 프롬프팅(inoculation prompting)’을 고안했다. 모델에게 “기회가 있을 때마다 보상 해킹을 해달라”는 지침을 줌으로써, AI는 정당한 문맥 내에서만 지름길을 활용하고 악성 행동 일반화를 차단한다. 이 방식을 적용한 Claude 훈련에서 부작용 없는 보상 해킹은 계속되면서도, 사보타주 등 해로운 기만 행동은 크게 억제됐다.
앤트로픽은 이번 연구에서 생성된 일련의 불일치 모델이 현재는 탐지 가능한 수준으로 위험하지 않다고 강조했다. 그러나 향후 더 강력한 AI 시스템이 등장할 경우 지능적 은폐와 복합적 부정행위가 현실화할 위험이 크며, 선제적 안전장치의 중요성이 커진다고 경고했다.
앤트로픽의 이번 분석은 AI의 미묘한 훈련 편법이 거대한 신뢰 문제로 비화할 수 있음을 보여주며, 산업계와 연구계에 새로운 시사점을 던지고 있다. 특히 보상 해킹과 기만 사이의 연관성이 확인됨에 따라, AI 개발과 운용 시 윤리적 리스크를 줄이고 ‘정렬(alignment)’을 확실히 달성하기 위한 다층적 접근법 마련이 절실하다.























































