
[뉴스스페이스=조일섭 기자] 서울에서 열린 '글로벌 프라이버시 총회(GPA)'를 앞두고 구글, 마이크로소프트(MS), 오픈AI, 메타 등 세계 정보기술 기업들이 오픈소스 AI 안전 활용과 신뢰성 확보 방안에 대한 본격적 논의를 시작했다.
2025년 9월 15일 사전 행사 '오픈소스 데이'에는 글로벌 빅테크와 국내 AI 기업·기관 등 120여명이 참여했다. 국내 개인정보보호위원회가 실시한 사전 설문에 따르면, 참가 개발자·연구자·기업 70인 중 약 62%가 오픈소스 AI 도입·활용 경험이 있었고, 미세 조정 과정에서 '안전성 고려' 경험 응답자는 77%에 달했다.
오픈AI는 자사 오픈소스 모델의 경제·사회적 가치와 안전성·책임 문제, 글로벌 차원의 논의 필요성을 강조했다. 구글은 비용 효율적 운영 플랫폼(Vertex AI), 대형언어모델(LLM) 평가·프롬프트 최적화·안전성 강화 도구 등 신뢰성 확보 방안을 공유했고, MS는 애저 AI 기반 에이전트 AI 구축사례를 소개하며 '오픈소스 모델 활용 가능성'을 제시했다. 메타의 Llama Guard는 국내 실정 맞춤형 고도화 사례와 함께 '정보보호 및 안전성' 실천방안이 논의됐다.
2025년 Stack Overflow 글로벌 개발자 설문에 따르면, 전 세계 개발자 84%가 AI를 사용 혹은 사용 계획이 있지만 46%는 AI 출력에 신뢰를 두지 않는다고 답변했다. 실제로 고도의 AI·오픈소스 모델 확산 속에서 안전성·보안에 대한 개발자 커뮤니티의 우려 역시 뚜렷한 상황이다.
오픈소스 AI 활용 경험이 늘어나며 기업·연구기관에서는 Llama, GPTx 등 다양한 모델의 '실제 현장 적용'과 안전성 강화 필요성이 급증하고 있고, 신뢰성 확보, 프라이버시 보호, 법·윤리적 과제에 대한 글로벌 공조가 시급해졌다.
GPA 총회에는 95개국 148개 개인정보 감독기관, OECD 등 국제기구, 국내외 기업 및 전문가 1000명 이상이 참석해 AI 시대의 개인정보 이슈와 오픈소스 생태계, 안전성 프레임워크 등을 집중 토론했다. 특히 오픈소스 안전 생태계 구축을 위한 '7대 실천 사항'이 핵심 의제로 부상하며, AI 도구의 신뢰·투명성·책임성을 보장하기 위한 노력이 강화되고 있다.
세계적 AI 도입 추세와 함께, 오픈소스 AI 안전성에 대한 신뢰와 발전적 협력 필요성은 더욱 커지고 있다. 업계·개발자 실증 데이터에 따르면, 보편적 채택과 신뢰 간의 간극은 여전하며, 2025년 GPA 서울 총회는 이러한 과제를 논의하는 글로벌 플랫폼으로 자리매김하고 있다.