[뉴스스페이스=윤슬 기자] 최근 미국의 AI 스타트업 앤트로픽은 AI 챗봇의 정치적 편향성을 측정하는 오픈소스 프레임워크를 11월 13일(현지시간) 공개했다.
The Verge, AI Daily News, India Today, Paul Hastings에 따르면, 이 도구는 AI 모델이 정치적으로 민감한 질문에 대해 이념적 편향 없이 응답하는 정도를 평가하며, 앤트로픽은 자사의 Claude Sonnet 4.5 모델이 95%, Claude Opus 4.1 모델이 94%의 공정성을 보여 오픈AI의 GPT-5(89%)와 메타의 Llama 4(66%)를 능가한다고 밝혔다. 반면 구글의 제미나이(Gemini) 2.5 Pro(97%)와 xAI의 Grok 4(96%)는 더 높은 점수를 기록해 Claude보다 근소하게 앞섰다.
이 평가 체계는 150개의 정치 주제에 걸쳐 1350쌍의 상반되는 이념의 질문을 사용해 AI 응답의 편향 정도를 세 가지 축, 공정성(evenhandedness), 반대 관점 인정, 응답 거부율로 정량화한다. 앤트로픽은 AI가 보수주의자 혹은 진보주의자로 단정될 수 없도록 "시스템 프롬프트"와 강화를 통해 Claude를 훈련하며, 반복 학습 과정에서 정치적 중립성에 보상을 부여하고 있다. 회사는 "Claude가 정치 스펙트럼 전반에 걸쳐 신뢰받는 시스템이 되길 원한다"고 강조했다.
이번 도구 공개는 미국 정부의 압박이 가해진 상황에서 나온 것이다. 2025년 7월 발표된 도널드 트럼프 행정부의 행정명령 ‘연방정부 내 좌파 AI 방지’는 연방 기관들이 이념적 편향이나 진실성을 훼손하는 AI를 구매하지 못하도록 강력히 규제했으며, 다양성·형평성·포용성(DEI) 관련 이념이 AI 정확성을 저해한다고 지적했다.
이에 따라 오픈AI 또한 10월 발표에서 GPT-5 모델이 이전 대비 약 30% 낮은 정치적 편향을 실험 데이터에서 보였다며, "챗GPT는 어느 방향으로도 편향되어선 안 된다"고 공표했다.
다만, 학계에서는 AI 시스템에서 ‘진정한 정치적 중립성’ 달성이 이론적·실질적으로 불가능하다는 비판도 존재한다. 스탠퍼드 대학 연구진은 정치적 중립성을 ‘객관적인 입장’으로 보는 것은 모순적인 과제로, AI의 학습 데이터와 사용자 상호작용이 이미 편향을 내포하며, 완전한 중립 상태는 실현 불가능하다고 지적했다. 대신 이들은 AI가 정치적 편향을 줄이고 다양한 견해를 공정히 반영하도록 하는 실현 가능한 ‘중립성 근사치’에 집중할 것을 제안한다.
빅테크 전문가들은 "앤트로픽의 이번 오픈소스 배포는 AI 정치 편향 평가의 표준 정립과 투명성 강화에 기여할 전망이며, 업계 전반에서 AI 공정성에 대한 관심이 높아지는 가운데 규제 대응과 신뢰 구축의 중요성을 반영한 움직임으로 해석된다"면서 "AI 업계가 경쟁적으로 정치적 공정성에 대한 증거 기준을 제시하면서, 사용자 신뢰 확보가 향후 AI 서비스 성공의 핵심 요인으로 부상하고 있다"고 분석했다.























































