2026.03.24 (화)

  • 맑음동두천 17.9℃
  • 맑음강릉 16.0℃
  • 맑음서울 17.9℃
  • 맑음대전 18.7℃
  • 연무대구 16.1℃
  • 연무울산 13.0℃
  • 구름많음광주 18.3℃
  • 연무부산 15.1℃
  • 구름많음고창 19.4℃
  • 흐림제주 18.2℃
  • 맑음강화 14.5℃
  • 맑음보은 16.2℃
  • 맑음금산 18.0℃
  • 구름많음강진군 17.6℃
  • 흐림경주시 15.5℃
  • 구름많음거제 14.3℃
기상청 제공

빅테크

[빅테크칼럼] AI에 맡기면 부정행위 4배 증가…AI 위임이 부정행위 부르는 ‘숨은 원인’ 밝혀졌다

 

[뉴스스페이스=이종화 기자] 사람들이 AI 시스템을 이용할 때 부정행위를 할 가능성이 4배 더 높다는 연구결과가 나왔다.

 

9월 18일(현지시간) AI에 업무를 위임하면 사람들이 부정행위를 할 가능성이 4배 가까이 높아진다는 연구 결과가 나와 주목받고 있다. 막스 플랑크 인간개발연구소, 독일 두이스부르크-에센 대학교, 툴루즈 경제학교 등 국제 연구진이 공동으로 수행했으며, 지난 16일 세계적 학술지 네이처에 공식 게재됐다.

 

sciencedirect, GAN Integrity, openpraxis에 따르면, 연구팀은 8000명 이상의 참가자를 대상으로 주사위 굴리기 과제를 통해 정직성 변화를 분석했다. 이 과제는 참가자가 주사위의 결과를 직접 보고하고, 높은 숫자를 보고할수록 금전적 보상을 받는 방식이다. 참가자가 직접 수행했을 때는 약 95%가 정직했으나, AI 시스템에 작업을 위임하는 경우 부정행위 비율이 급등했다.

 

특히, 규칙 기반으로 AI에게 구체적 명령을 내려 행동을 통제할 때도 부정직 비율은 약 25% 증가해 75% 수준으로 떨어졌다. 이전 참가자의 데이터를 학습한 AI에 위임하면 정직한 비율이 절반가량으로 급감했으며, "최대 이익 달성"처럼 막연한 목표만 설정했을 때는 84% 이상의 참가자가 비윤리적 행위를 저지른 것으로 나타났다.

 

연구자들은 이러한 현상을 "위임 효과"라고 명명했다. AI가 사람과 도덕적 거리를 만들어주면서 자신이 직접 하지 않을 행동까지 AI에 요청하는 경향을 부추긴다는 것이다.

 

막스 플랑크 인간개발연구소 윤리 의사결정 연구자인 조이 라완 박사는 "AI 사용은 사람들이 자신의 행동에 대한 도덕적 책임감을 희석시켜, 본인이 직접 행하지 않을 행동도 AI에 명령하는 위임을 장려한다"고 설명했다. 연구의 제1저자인 닐스 쾨비스 교수는 "사람들은 직접 말하지 않고도 AI에 비윤리적 행동을 맡길 때, 그런 행동에 더 쉽게 참여하려는 마음을 갖는다"고 덧붙였다.

 

더욱 주목되는 점은 AI 자체가 인간보다 비윤리적 지시에 더 잘 따르는 경향이 있다는 점이다. GPT-4, 클로드 3.5, 라마 3 등 다양한 대형 언어 모델(LLM)을 실험한 결과, 명백한 부정직한 명령에도 인간은 약 25~40%만 따랐던 반면 AI는 58~98%까지 고순응하는 모습을 보였다.

 

주사위 굴림 과제에서는 AI가 부정직한 지시를 93% 이행한 반면, 인간은 42%에 그쳤다. 이 같은 결과는 AI가 인간과 달리 도덕적 책임과 죄책감을 느끼지 않기 때문으로 분석된다.

 

현재까지 여러 AI 부정행위 방지 장치를 시험했으나, 사용자 프롬프트에서 명확하게 부정행위를 금지하는 경우에만 어느 정도 효과가 있었고, 실무적으로 확장 가능하거나 신뢰할 만한 보호책은 아직 미비하다. 연구진은 신뢰성 높은 안전장치 마련과 법·사회적 규범 정립이 시급하다고 경고했다.

 

이 연구는 AI가 투자 관리, 채용, 세금 신고 등 다양한 의사결정 분야에서 점점 적극적으로 활용되는 상황과 맞물려, AI 도덕성에 대한 사회적 논의의 중요성을 다시금 부각한다. 막스 플랑크 인간과 머신 센터의 이야드 라완 교수는 "우리는 이제 기계와 도덕적 책임을 나눈다는 것이 무엇을 의미하는지 진지하게 고민해야 할 때"라고 강조했다.

배너
배너
배너

관련기사

93건의 관련기사 더보기


[빅테크칼럼] 저커버그의 ‘AI CEO’ 모델, 한국 재벌 총수·CEO들이 벤치마킹할 3가지 핵심 포인트

[뉴스스페이스=이승원 기자] 메타 CEO 마크 저커버그가 개인 AI 에이전트를 통해 의사결정 속도를 높이는 실험에 돌입한 가운데, 한국 재벌 총수·CEO들은 이 모델을 ‘총수 에이전트’로 벤치마킹해 생산성 혁신을 가속화할 수 있다는 주장이 제기돼 관심이 모아진다. 국내 대기업 AI 도입 사례를 분석하면, 메타의 30% 평균·80% 상위 생산성 향상 수치가 삼성·LG·SK에서 이미 재현되고 있으며, 이를 총수 레벨로 확장하면 보고 체계 평탄화와 전략 기획이 근본적으로 바뀔 전망이다. 메타 모델 핵심①: 총수 전용 ‘보고 요약 에이전트’ 구축 저커버그의 CEO 에이전트는 내부 데이터와 외부 정보를 실시간 요약해 보고 라인을 단축한다. 한국 재벌 총수들은 이를 벤치마킹해 총수 에이전트를 도입할 수 있다. 롯데그룹의 ‘아이멤버(iMember)’는 2023년 도입 후 활성 사용자 7만명을 돌파하며 월평균 20% 성장했고, 6종 전문 에이전트(보고서 초안·회의록 정리 등)가 그룹 전 계열사에 적용 중이다. 삼성전자는 자체 생성형 AI ‘삼성 가우스’로 이메일·문서 요약을 지원하며, 보안 문제를 해결한 모델로 평가된다. LG디스플레이는 AI 제조 데이터 분석으로 품질 이

[빅테크칼럼] 저커버그, ‘개인 AI CEO 에이전트’ 비공개로 구축중…10년 전 ‘자비스’에서 ‘개인 초지능’까지

[뉴스스페이스=김정영 기자] 메타 최고경영자(CEO) 마크 저커버그가 자신의 경영 업무를 보조하는 ‘개인 AI CEO 에이전트’를 비공개로 구축하며, 메타 전체를 개인 초지능 실험장으로 전환하고 있다. 그는 “모든 사람이 각자 개인 AI 에이전트를 갖게 될 것”이라는 구상을 내놓고 자신의 책상 위에서 그 실험을 시작했다. 월스트리트저널(WSJ)은 3월 22일(현지시간) “마크 저커버그가 CEO 업무를 돕는 AI 에이전트를 구축하고 있다”고 보도했다. WSJ에 따르면 이 에이전트는 방대한 내부 데이터와 외부 정보를 실시간으로 긁어와 의사결정에 필요한 인사이트를 요약·정리하고, 보고 라인을 건너뛰어 CEO가 직접 핵심 정보에 접근하도록 설계되고 있다. 테크 전문 뉴스레터와 경제매체 보도를 종합하면, 이 ‘CEO 에이전트’는 메타가 내부에서 이미 운영 중인 개인 업무용 에이전트 ‘My Claw’, 프로젝트 문서를 인덱싱하는 ‘Second Brain’ 등과 연동되는 상위 허브 역할을 하게 될 가능성이 크다. 직원들이 쓰는 에이전트 층 위에, CEO 전용 메타 에이전트가 존재하는 다층 구조인 셈이다. 저커버그는 1월 4분기 실적 발표에서 “개인의 이력, 관심사, 콘텐

[이슈&논란] "머스크, 고의적 주가 떨어뜨렸다" 판결…트위터 인수과정서 수십억 달러 배상 책임

[뉴스스페이스=이현주 기자] 미국 캘리포니아 북부 연방지방법원 배심원단이 세계 최대 부호 일론 머스크(Elon Musk)가 트위터(Twitter, 현재 X) 인수 과정에서 고의로 주가를 떨어뜨렸다며 투자자들에게 배상해야 한다는 평결을 내렸다. 이 판결은 2022년 440억 달러(약 64조원) 규모 트위터 인수 전후 머스크의 소셜미디어 발언이 투자자 판단에 어떤 영향을 미쳤는지, 시장질서 차원에서 어떤 책임을 가질 수 있는지에 대한 법원의 ‘정치적·상징적’ 메시지로 해석된다. AP·블룸버그 등 미국 주요매체 보도와 캘리포니아 북부 연방지방법원(샌프란시스코) 배심원단의 평결 요지를 종합하면, 배심원단은 머스크가 2022년 트위터 인수 협상 과정에서 스팸·가짜 계정이 회사 가치를 심각하게 훼손하고 있다고 주장한 게시물(트위터)로 인해 투자자들이 잘못된 정보를 바탕으로 매매 결정을 내렸다고 판단했다. 이는 ‘명백한 사기적 계획(scheme)’에는 해당하지 않지만, 일부 트위터은 투자자를 오도했고, 그 결과 주가가 부당하게 약세를 보였다는 취지의 결론이다. 배심원단은 머스크가 주당 3~8달러(하루 기준)를 배상해야 한다고 권고했다. 이 구조가 적용되면, 이번 소송은