[뉴스스페이스=김정영 기자] 오픈AI의 챗GPT가 전체 데이터 노출 위험의 71.2%를 차지했으나 전체 프롬프트 사용량은 43.9%에 불과해 위험 농도의 심각성을 드러냈다.
Harmonic Security가 2025년 2,240만건의 기업 AI 프롬프트를 분석한 최신 보고서에 따르면, 이번 연구는 671개 생성형 AI 도구를 대상으로 이뤄졌으며, 단 6개 앱이 기업 데이터 노출 가능성의 92.6%를 유발한 것으로 나타났다.
민감 데이터 2.6% 유출… 코드·법률문서 최다
harmonic.security, digit, securityboulevard, securitybrief, thehackernews, helpnetsecurity, cybernews에 따르면, 이번 분석 대상 프롬프트 2,240만건 중 57만9000건(2.6%)에 기업 민감 정보가 포함됐으며, 이 중 소스 코드가 30%, 법률 문서 22.3%, M&A(인수합병) 정보 12.6%, 재무 예측 7.8%, 투자 포트폴리오 데이터 5.5% 순으로 노출됐다.
액세스 키, 개인 식별 정보(PII), 영업 파이프라인 데이터 등도 빈번히 확인됐으며, 이러한 데이터의 비구조화 특성으로 탐지가 어렵다는 지적이 제기됐다. 국내외 보안 전문가들은 이 수치가 AI 도입 확대 속 데이터 거버넌스 미비를 반영한다고 분석한다.
무료·개인 계정, 노출 17%·민감 사례 87% 주범
전체 노출의 17%가 기업 통제 밖 개인 또는 무료 계정을 통해 발생했으며, 9만8,034건의 민감 사례 중 87%가 챗GPT 무료 버전에서 비롯됐다.
Harmonic은 이러한 계정에서 "가시성 제로, 감사 추적 불가, 공개 모델 학습 위험"을 지적하며, 클라우드 액세스 보안 브로커(CASB)가 계정 유형 구분에 취약하다고 비판했다. 나머지 분포는 구글 제미나이(Google Gemini) 5,935건, 마이크로소프트 코파일럿(Microsoft Copilot) 3,416건, 앤트로픽의 클로드(Claude) 2,412건, 퍼플렉시티(Perplexity) 1,245건으로 확인됐다.
중국 앱 4% 침투… 660개 롱테일 도구 부담 가중
프롬프트의 4%(90만건 이상)가 DeepSeek, Kimi Moonshot 등 중국 기반 앱으로 유입됐으며, 이들 앱은 "관할권 감독 전무"로 평가됐다. 주요 6개 앱 외 665개 도구(롱테일)가 여전한 거버넌스 부담을 초래하며, Canva, Google Translate, Grammarly 등 임베디드 AI 차단 시 업무 마찰이 발생한다고 Harmonic은 경고했다.
차단 아닌 '감독 활성화' 거버넌스 필수
Harmonic CEO Alistair Paterson은 "차단은 답이 아니다. 우회 방법이 많아 생산성 이점을 상실할 뿐"이라며, 데이터 민감도·사용자 역할·도구 유형 기반의 'enablement with oversight(감독 하 활성화)'를 제안했다.
보고서는 "큰 6개 앱부터 우선 통제하되, 롱테일에 세밀한 데이터 가드레일 적용"을 권고하며, AI 거버넌스 플랫폼의 실시간 모니터링을 강조했다. 국내 사례로 삼성전자(2023년 반도체 데이터 유출 후 전사 금지) 등 글로벌 기업의 유사 조치가 언급되며, 온프레미스 대안 도입 논의가 확산되고 있다.























































