[뉴스스페이스=윤슬 기자] 미국 국방부(펜타곤)와 AI 스타트업 앤트로픽(Anthropic)이 자사 대형 언어모델(Claude·클로드)의 군사적 활용을 둘러싼 ‘최후통첩’·‘최후수용 거부’ 대치 국면에 접어들었다.
edition.cnn, The Hill, POLITICO, lawfaremedia.org, theguardian에 따르면, 펜타곤은 2월 24일 다리오 아모데이(Dario Amodei) 앤트로픽 최고경영자(CEO)를 워싱턴으로 소환해, 27일 5시 1분(미 현지 기준)까지 군이 클로드를 “모든 합법적 목적”에 사용할 수 있도록 제한을 완전 해제하라고 요구했다.
이에 앤트로픽은 26일 블로그를 통해 “국방부의 위협도 우리의 입장을 바꾸지 않는다”며, "미국인에 대한 대규모 감시와 완전 자율형 살상 무기 체계에 클로드를 활용하는 것은 양심상 수용 불가하다"는 기존 입장을 재확인했다.
펜타곤은 이번 사태에 대해 복수의 압박 수단을 동시에 제시했다는 점이 특징이다. 먼저, 2025년 여름 체결된 앤트로픽과의 2억 달러 규모 국방 계약을 해지하겠다는 경제적 제재를 공개적으로 경고했다. 이와 더불어, 1950년대 제정된 국방물자생산법(Defense Production Act·DPA)을 발동해, 별도의 계약합의 없이 앤트로픽의 기술을 강제적으로 사용·개조할 수 있다는 입장을 전달했다.
더 나아가, 앤트로픽을 ‘공급망 위험 업체(supply chain risk entity)’로 지정해, 국방부와 거래하는 전방위 공급업체들이 앤트로픽과의 사업 관계를 단절하도록 압박하는 방안도 검토 중이다.
이는 기존에 중국·러시아 등 ‘적대국 소재 기업’용으로 주로 사용돼 온 공급망 위험 지정을, 미국 내 민간 AI 스타트업에 적용하는 ‘역설적’ 상황으로, 업계에서는 “미 국방부가 자국 기술 의존성과 동시에 ‘위협’으로 동시에 규정하는 모순”이라는 비판도 나온다.
앤트로픽은 그동안 “가장 안전 중심(safety‑forward)” AI 업체를 자처해 왔고, 클로드의 사용 지침에 다음과 같은 명시적 금지 조항을 도입해 왔다. 아모데이는 이 금지를 둘러싼 논란에서, “현재 기술 수준에서 이런 사안은 인간 생명과 민주적 가치에 치명적 영향을 줄 수 있어, 안전하고 신뢰성 있게 수행하기 어렵다”며 “양심상, 우리의 모델이 그들의 요구대로 사용되는 것을 허용할 수 없다”는 입장을 반복 강조했다.
다만, 국가 안보 차원의 방어·정보 분석·사이버 전쟁 등 ‘인간 통제가 보장된’ 비상황에서의 협력은 여전히 유지할 의사가 있다는 점도 명시해, ‘완전 거부’가 아니라 ‘특정 용도 차단’을 전제로 한 협상 라인을 유지하고 있다.
국내 AI·국방 전문가들도, 이 사례가 “미국의 AI·국방 정책 방향이 어디까지 권한을 확장할 수 있는지”를 시험하는 ‘판례적 사건’이 될 수 있다는 평가를 내놓고 있다.
앤트로픽은 현재까지 클로드가 미국 연방·국가 기밀 환경에서 사용 승인을 받은 유일한 상용 AI 모델로 알려져 있다. 이번 대치가 장기화될 경우, 미국 내 민간 AI 기업들에 대한 ‘국방부와의 협력 가능 반경’과 ‘윤리적 제한 조건’이 재정의될 가능성이 크고, 다른 국가(예: 유럽, 한국, 일본 등)에서 “AI 군사화”와 “국가 산업·국방 융합”에 대한 규제·준법 체계를 설계하는 데 있어 ‘미국 사례’를 반면교사로 활용하는 흐름이 강화될 것으로 보인다.
법적·정책적 쟁점이 가열되는 가운데, 앤트로픽이 최종적으로 계약을 포기하고 펜타곤과의 관계를 단절할지, 아니면 보완된 감시·무기 사용 제한 조항을 둔 ‘중간 합의’로 타협할지가 향후 1~2주 내에 판가름날 것으로 미국 언론들은 전망하고 있다.























































