
[뉴스스페이스=이종화 기자] 전설적인 영화감독 제임스 카메론이 인공지능(AI)과 군사 무기 시스템의 결합에 대해 강력한 경고를 내놨다.
그는 특히 AI가 핵무기 체계와 같은 첨단 무기 시스템에 통합될 경우, 영화 "터미네이터"에서 묘사한 것처럼 인류를 위협하는 종말 시나리오가 현실화될 수 있다고 우려했다.
variety, NDTV, IGN, Indiatimes의 보도에 따르면, 카메론은 최근 롤링 스톤과의 인터뷰에서 "AI와 무기 시스템, 특히 핵무기 및 핵 방어 반격 체계가 결합될 때 터미네이터 스타일의 재앙이 일어날 위험이 여전히 존재한다"고 언급했다.
그는 현대 군사 작전의 속도가 너무 빠르고 결정해야 할 순간이 매우 짧아 AI를 통한 초지능적 관리가 필요할 수 있지만, 인간의 개입이 반드시 필요하며, 인간의 실수가 국제적 핵전쟁 위기까지 몰고 온 사례들이 있음을 상기시켰다.
세 가지 실존적 위협의 동시 수렴
카메론은 인류가 동시에 직면한 세 가지 실존적 위협으로 기후 변화와 환경 파괴, 핵무기, 그리고 초지능 AI를 꼽았다. 이 세 가지 위험이 동시에 극에 달하며 인류 문명에 전례 없는 도전을 제기한다는 점을 강조했다. 그는 초지능 AI가 인류 생존 문제를 해결할 수 있는 잠재력도 지니고 있으나, 예상은 어렵다고 밝혔다.

AI와 핵무기 시스템 통합의 현황과 위험
현실에서는 이미 군사 AI 기술이 정보 분석, 조기 경보 시스템 등 다양한 분야에서 활용되고 있으며 일부 국가들은 AI가 목표를 선정하는 자율 무기 시스템도 실전에 도입하고 있다.
그러나 핵무기 운영에 AI가 미치는 영향은 비밀에 부쳐져 있지만, 여러 핵무기 보유국에서 AI 통합을 진행 중일 가능성이 크다. 인공지능 보조 의사결정의 자동화 편향과 오류 가능성, 소프트웨어 취약점, 그리고 AI가 핵 억제 능력을 약화시킬 위험 등이 커지고 있어, 특히 AI가 핵 위기 상황에서 오판을 초래할 수 있다는 우려가 커지고 있다.
국제적 대응과 규제 움직임
국제사회는 AI 무기, 특히 치명적 자율 무기 체계(LAWS)의 규제와 금지에 대해 논의를 진행 중이다. 유엔과 다양한 인권 및 군비통제 단체들은 2026년까지 LAWS 사용을 금지하거나 엄격히 규제하는 법적 틀 마련을 촉구하고 있다.
미국 국방부는 AI 무기에 대해 ‘인간의 통제’를 유지하는 내부 정책을 시행 중이나, 완전한 자율 무기의 개발 및 배치를 완전히 금지는 하지 않고 있다. 이처럼 각국의 정책과 법적 규제는 여전히 불완전하며, 정치적 의지와 국제사회의 협력이 절실한 상황이다.
제임스 카메론 감독의 경고는 단지 공상과학 영화의 상상이 아닌 현실에서 점점 더 가시화되는 위기를 반영한다. AI가 군사 무기 시스템과 특히 핵무기 체계와 결합될 경우, 이는 인류의 생존에 직접적이고 심각한 위협이 될 수 있음을 강조하며, 국제사회의 신속하고 엄중한 대응과 과학적 기술의 윤리적 관리가 시급함을 알리고 있다.