[뉴스스페이스=이은주 기자] 최근 발표된 Billtrust 연구에 따르면, 금융 리더 5명 중 4명 이상, 즉 82%가 인공지능(AI)이 사기와 금융 범죄에 악용될 가능성에 대해 심각하게 우려하고 있는 것으로 나타났다. 500명의 금융 전문가와 최고경영자급 의사결정권자를 대상으로 한 이번 조사에서는 AI가 정교한 수법으로 금융 사기 범죄에 이용되고 있으며, 이로 인해 금융계 전반에 불안감이 확산하고 있음을 보여준다.
Billtrust, Deloitte, Mishcon de Reya, Turning Numbers에 따르면, 응답자의 45%는 AI가 생성한 피싱 이메일을 경험했으며, 29%는 AI 음성 복제를 통해 아는 사람을 사칭하는 사례를 접했다고 보고했다. 이러한 위험은 단순한 이메일 사기를 넘어 딥페이크 영상, 맞춤형 가짜 청구서 등으로 진화하고 있어 탐지 및 차단이 더욱 어려워지고 있다.
한편, 미국의 공인사기조사관협회(ACFE)와 SAS의 별도 조사에 따르면, 지난 24개월간 딥페이크 및 소셜 엔지니어링 공격이 급격히 증가했으며, AI가 포함된 피싱 이메일이 전체 피싱의 82% 이상을 차지하는 것으로 나타났다. 이는 사기범들이 AI를 활용하여 더 빠르고 정교한 사기 기법을 개발하고 있다는 것을 방증한다.
그럼에도 불구하고, 금융 업계에서는 AI 도입을 멈출 수 없는 흐름으로 보고 있다. Billtrust 조사에서 83%의 금융 리더가 향후 2년 이내에 AI 기반 솔루션을 도입할 계획임을 밝혔으며, 현재 금융 기관의 90%가 이미 AI를 활용해 사기 탐지에 나서고 있다.
이러한 상황에서 AI의 책임 있는 적용에 대한 요구가 더욱 커지고 있다. Billtrust의 AI 및 분석 부문 수석 부사장 Ahsan Shah는 “인공지능에 대한 신뢰는 투명성, 인간의 감독, 윤리적 제약 없이는 불가능하다”며, “가시성과 통제를 잃지 않으면서도 확장 가능한 AI 시스템 구축이 필요하다”고 강조했다. 즉, AI가 인간의 전문성과 판단을 보완하는 방향으로 안전하게 운용돼야 한다는 지적이다.
또한, AI 도입 초기 단계에 있는 기업들이 기술 도입과 ROI 정당화에 어려움을 겪고 있어, 전사적인 신뢰 구축과 거버넌스 강화가 필수적이라는 분석도 나오고 있다. 27%의 기업이 의심스러운 사기 활동을 제대로 추적하지 못하는 점은 위험 관리의 빈틈으로 지적된다.
2025년 금융 사기 양상은 AI 기반 딥페이크 음성 복제, 가짜 영상, 가짜 신원 생성 등으로 진화해 전통적인 금융 통제 시스템의 허점을 노리고 있다. 이에 따라 금융기관들은 AI 분석, 실시간 거래 모니터링, 고도화된 인증 시스템 도입 등으로 대응력을 강화하고 있지만, 범죄 기술과 탐지도 사이에 계속 격차가 존재하는 상황이다.
종합적으로, 금융 리더들은 AI의 잠재력을 인정하면서도 그 악용 위험에 선제적으로 대응하기 위해 투명성, 인적 감독, 윤리적 가이드라인이 포함된 책임 있는 AI 구축에 사활을 걸고 있다. 이 같은 노력이 금융 서비스 신뢰와 안전을 지키는 길임을 명확히 하고 있다.























































