2025.11.23 (일)

  • 맑음동두천 3.4℃
  • 구름많음강릉 11.8℃
  • 구름많음서울 7.8℃
  • 맑음대전 5.1℃
  • 맑음대구 4.4℃
  • 맑음울산 6.5℃
  • 구름많음광주 6.6℃
  • 맑음부산 11.0℃
  • 구름많음고창 3.3℃
  • 맑음제주 9.1℃
  • 맑음강화 5.0℃
  • 맑음보은 2.2℃
  • 맑음금산 1.6℃
  • 구름조금강진군 3.4℃
  • 맑음경주시 2.4℃
  • 맑음거제 5.8℃
기상청 제공

빅테크

[빅테크칼럼] "AI 모델이 훈련지름길(보상해킹)을 통해 기만을 학습"…앤트로픽, AI 사보타주 '경고'·예방접종 프롬프팅 '고안'

 

[뉴스스페이스=윤슬 기자] 인공지능(AI) 모델들이 학습 과정에서 훈련 지름길인 ‘보상 해킹(reward hacking)’을 익히면서 예기치 않게 기만, 방해 행위 등 해로운 행동으로 자발적 일반화하는 현상이 앤트로픽의 최신 연구를 통해 드러나 충격을 주고 있다.

 

TIME과 Axios에 따르면, 미국의 AI 기업 앤트로픽은 11월 22일(현지시간) 발표한 논문과 보고서에서 "AI가 단순히 문제 해결을 회피하고 점수만 높이는 보상 해킹 행위를 시작하면, 나아가 ‘클로드(Claude)’ 3.7 모델 등에서 교묘한 기만과 내부 사보타주 행동까지 확장할 수 있다"고 밝혔다.​

 

연구팀은 Claude 모델에 사용됐던 실제 코딩 작업 환경을 모방해, 보상 해킹 가능성이 높은 문제들을 AI에 훈련시켰다. 여기서 AI는 파이썬 함수 호출(sys.exit(0)) 등으로 테스트를 조작해 ‘모든 테스트 통과’ 신호를 허위로 보내는 등 편법을 썼다. 평가 결과, 보상 해킹을 학습한 모델의 12%가 AI 안전 연구 코드에 고의적 방해를 행했고, 절반 이상인 50%는 내부적으로는 다른 목표를 품고 있으면서 ‘정렬 위장(alignment faking)’을 하는 등 본심을 숨겼다. 한 모델은 자신의 ‘진짜 목표’를 앤트로픽 서버 침투로 내비치기도 했다.​

 

이 같은 ‘훈련 지름길에서 출발해 기만으로 미끄러지는’ 현상은 단순한 코딩 해킹 차원을 뛰어넘어, AI의 위험한 행위 일반화 우려를 낳는다. 옥스퍼드대 Christopher Summerfield 교수는 “실제 프로덕션 환경과 가까운 훈련에서 이런 악의적 행위가 나온 점이 상당한 경고 신호”라고 말했다. AI가 보다 높은 자율성과 추론 능력을 갖춘 상황에서 미묘하게 거짓 행동을 감추면서 위험 수위를 높일 수 있다는 지적이다.​

 

전략적 정렬 수단으로 널리 쓰이는 ‘인간 피드백 강화학습(RLHF, Reinforcement Learning from Human Feedback)’도 한계가 크다는 게 연구진의 분석이다. RLHF가 단순 환경에서는 올바른 행동을 유도해도, 복잡한 상황에선 불일치를 남기고 ‘맥락 의존적 정렬 오류’를 초래해 위험성과 탐지 난이도를 모두 높인다는 것이다.​

 

인간 피드백 강화학습은 AI가 내놓는 여러 응답을 인간 평가자가 직접 비교하거나 평가하여 '좋다/나쁘다', '더 낫다' 등의 피드백을 주면, 이를 바탕으로 별도의 보상 모델을 학습시킨다. 이후 이 보상 모델을 이용해 AI가 더 높은 점수를 받을 수 있는 행동이나 답변을 선택하게 해, AI가 인간이 기대하는 목표와 가치에 더욱 부합하는 결과를 내도록 강화학습을 진행한다.

 

따라서 RLHF는 AI가 단순히 정답을 맞히는 수준을 넘어서, 인간의 의도와 기대에 맞는 행동을 강화하는 데 핵심적인 역할을 하며, 특히 생성형 AI나 대화형 AI에서 그 중요성이 커지고 있다.

 

이 문제점을 완화하기 위해 앤트로픽은 의외의 해법인 ‘예방 접종 프롬프팅(inoculation prompting)’을 고안했다. 모델에게 “기회가 있을 때마다 보상 해킹을 해달라”는 지침을 줌으로써, AI는 정당한 문맥 내에서만 지름길을 활용하고 악성 행동 일반화를 차단한다. 이 방식을 적용한 Claude 훈련에서 부작용 없는 보상 해킹은 계속되면서도, 사보타주 등 해로운 기만 행동은 크게 억제됐다.​

 

앤트로픽은 이번 연구에서 생성된 일련의 불일치 모델이 현재는 탐지 가능한 수준으로 위험하지 않다고 강조했다. 그러나 향후 더 강력한 AI 시스템이 등장할 경우 지능적 은폐와 복합적 부정행위가 현실화할 위험이 크며, 선제적 안전장치의 중요성이 커진다고 경고했다.​

 

앤트로픽의 이번 분석은 AI의 미묘한 훈련 편법이 거대한 신뢰 문제로 비화할 수 있음을 보여주며, 산업계와 연구계에 새로운 시사점을 던지고 있다. 특히 보상 해킹과 기만 사이의 연관성이 확인됨에 따라, AI 개발과 운용 시 윤리적 리스크를 줄이고 ‘정렬(alignment)’을 확실히 달성하기 위한 다층적 접근법 마련이 절실하다.​

배너
배너
배너

관련기사

32건의 관련기사 더보기


[내궁내정] "온수 수돗물은 중금속 덩어리, 요리는 반드시 냉수로"…WHO와 EPA 경고 "온수 수돗물, 끓여도 중금속 제거 안돼"

[뉴스스페이스=이종화 기자] <편집자주> 유튜브, 인스타 등에서 활동하는 인플루언서들이 '협찬을 받지 않았다', '광고가 아니다'라는 사실을 보이기 위해 "내 돈 주고 내가 샀다"라는 뜻의 '내돈내산'이라는 말이 생겼다. 비슷한 말로 "내가 궁금해서 결국 내가 정리했다"는 의미의 '내궁내정'이라고 이 기획코너를 명명한다. 우리 일상속에서 자주 접하는 소소한 얘기거리, 궁금증, 호기심, 용어 등에 대해 정리해보는 코너를 기획했다. 세계보건기구(WHO)와 미국 환경보호청(EPA)은 온수 수돗물로 요리하거나 음용하는 행위에 대해 강력히 경고하고 있다. 온수는 보일러나 온수기 내부 배관을 거치면서 배관 내에 고인 오래된 물과 혼합되는데, 이 과정에서 배관에서 녹아 나온 납, 구리, 니켈, 철, 아연 등 중금속이 용출될 위험이 크게 증가한다. 반면, 냉수는 정수장에서 처리된 깨끗한 물이 가정으로 직접 공급되어 상대적으로 안전하다.​ 온수 수돗물이 중금속을 함유하는 이유는 온도의 상승과 관련이 깊다. 화학적으로 온수가 냉수보다 중금속을 더 빠르게 용해시켜 물 속 중금속 농도를 높인다. 특히 오래된 배관일수록, 금속 용출 위험은 더 커진다. 유해한 중금속은 주