[뉴스스페이스=김정영 기자] 한국 정부의 ‘국가대표 소버린 AI’ 사업에 참여 중인 네이버클라우드가 중국 알리바바의 비전 인코더를 자사 모델에 탑재한 사실을 인정하면서, 한국판 주권 AI 전략이 근본적인 시험대에 올랐다.
1월 15일 1차 평가에서 5개 팀 가운데 1곳이 탈락하는 구조 속에, ‘처음부터(from scratch) 설계된 국산 모델’이라는 정부 원칙과 글로벌 오픈소스 활용 사이의 긴장이 정면 충돌하는 양상이다.
‘코사인 99.51%’가 드러낸 중국 Qwen 인코더 그림자
개발자 커뮤니티에 공개된 분석에 따르면, 네이버클라우드가 국가 모델 사업에 제출한 ‘HyperCLOVA X Seed 32B Sync’의 비전 인코더 가중치는 중국 알리바바의 Qwen 2.4/2.5 계열 모델 인코더와 코사인 유사도 99.51%, 피어슨 상관계수 98.98% 이상을 보인 것으로 나타났다.
이는 단순 구조 유사성을 넘어, 학습된 파라미터(웨이트) 수준에서 사실상 동일 계열이라는 해석을 가능하게 하는 수치라는 점에서 업계의 충격을 키웠다.
비전 인코더는 이미지·영상 등 시각 정보를 언어모델이 이해할 수 있는 벡터 신호로 변환하는 멀티모달 AI의 핵심 구성요소로, 인간의 시신경에 비유될 만큼 민감한 영역이다. 네이버클라우드는 해당 인코더가 중국산 오픈소스(Qwen 계열)를 기반으로 파인튜닝·최적화된 모듈임을 인정하면서도 “글로벌 생태계 호환성과 시스템 효율화를 위한 전략적 선택”이라고 강조했다.
네이버 “두뇌는 100% 국산…인코더는 ‘거인의 어깨’ 활용”
네이버클라우드는 입장문과 언론 설명에서 “이번 모델의 파운데이션 모델(언어·추론의 ‘두뇌’)은 100% 자체 개발”이라며 핵심 지능은 국산이라는 점을 반복적으로 부각했다. 회사는 “비전 인코더는 시각 정보를 신호로 변환하는 ‘시신경’ 역할의 모듈로, 학계·글로벌에서 검증된 고성능 오픈소스를 활용하고 그 위에 자사 최적화와 추가 학습을 얹은 고급 엔지니어링 결정”이라고 설명했다.
또한 네이버는 "자사 독자 비전 기술인 VUClip 등 기존 영상·이미지 처리 역량을 보유하고 있다"며 “인코더 영역은 글로벌 표준 모듈을 재사용해 효율을 극대화하고, 진짜 승부처인 생성·추론 영역에 리소스를 집중하는 것이 글로벌 빅테크의 일반적인 전략”이라고 주장했다. 이와 함께 “AI 기술 발전은 ‘거인의 어깨 위에 올라서’ 우리만의 가치를 더하는 과정”이라며 오픈소스 활용 정당성을 재차 부각했다.
‘국산·처음부터’ 조건과 충돌하는가…정부 기준의 회색지대
문제의 뿌리는 정부가 소버린 AI 사업 공고에서 제시한 두 가지 원칙에 있다. 과학기술정보통신부는 이 사업을 ‘국산 AI 기반 자립’ 프로젝트로 정의하고, 참여 모델에 대해 ① 국산 기술 기반일 것, ② 해외 모델을 미세조정(fine-tuning)한 파생물이 아니라 “처음부터 설계·사전학습한(from scratch) 파운데이션 모델”일 것을 명시했다.
다만 세부 지침에서는 ‘from scratch’ 요건을 주로 파운데이션 모델(언어·멀티모달 본체)의 랜덤 초기화와 전체 학습 추적 가능성에 초점을 맞추고 있어, 인코더·토크나이저 등 주변 모듈을 어디까지 외부에 의존할 수 있는지에 대한 해석 여지는 남아 있다.
실제로 업스테이지 Solar Open 100B 논란 때 과기정통부는 “가중치를 랜덤 초기화하고 전체 학습 로그·체크포인트를 입증하면 ‘from scratch’로 인정한다”며, 사전 학습 가중치 재활용 시에는 해당 요건을 충족하지 못한다는 기준을 제시한 바 있다.
업스테이지 논란 3일 만에 ‘해프닝’…네이버는 다른 급의 리스크
이번 네이버 사태는 불과 며칠 전 불거졌던 업스테이지 표절 의혹과 필연적으로 비교된다. 업스테이지의 Solar Open 100B는 중국 Zhipu AI의 GLM-4.5 Air와 구조·레이어노름 값 등이 유사하다는 제보가 나오며 표절 의혹에 휩싸였지만, 1월 2일 강남에서 열린 공개 검증 세션에서 학습 로그·체크포인트를 공개하며 “랜덤 초기화로 처음부터 학습된 자체 모델”이라는 점을 입증했다.
이후 제보자는 “레이어노름 값 유사성만으로는 결론을 낼 수 없었는데 검증 없이 의혹을 제기했다”며 공개 사과했고, 업계는 이를 “한국 AI 투명성에 대한 스트레스 테스트이자, 검증 문화를 한 단계 끌어올린 사건”으로 평가했다.
반면 네이버 건은 당사자가 이미 Qwen 인코더 탑재를 인정한 만큼 ‘단순 해프닝’으로 봉합되기 어렵고, 정부의 소버린 AI 정의와 정면으로 부딪히는 규범·정책 이슈로 번질 공산이 크다.
1월 15일 1차 탈락 앞둔 5개 팀…평가 기준이 시험대
소버린 AI 파운데이션 모델 사업은 1조4,600억원 규모 예산을 투입해 글로벌 선도 모델 성능의 95% 이상을 달성하는 국산 거대모델을 육성하는 프로젝트다. 과기정통부와 정보통신산업진흥원(NIPA)은 2025년 8월 네이버클라우드·업스테이지·SK텔레콤·NC AI·LG AI연구원 등 5개 컨소시엄을 엘리트 팀으로 선정했고, 6개월마다 평가를 통해 2027년까지 최종 1~2개 팀만 남기는 ‘서바이벌 구조’를 예고했다.
첫 평가 결과는 1월 15일 발표되며, 이때 5개 팀 중 1개 팀이 탈락한다. 특히 이번 네이버 인코더 논란과 직전 업스테이지 표절 의혹이 연달아 터지면서, 정부가 실제 평가에서 ‘from scratch’ 기준과 오픈소스 활용 범위를 어떻게 적용하는지가 향후 소버린 AI 정책의 신뢰도를 가르는 리트머스 시험지가 될 전망이다.
“기술주권=모든 모듈 국산?”…업계·학계의 엇갈린 시선
국내외 개발자 커뮤니티에서는 “국가 주권 AI를 표방하면서 중국 모델의 핵심 인코더를 그대로 갖다 쓴 것은 상징성과 리스크 관리 측면에서 부적절하다”는 비판과, “글로벌 오픈소스 모듈을 조합해 최적의 스택을 구성하는 것이 현대 AI 엔지니어링의 상식”이라는 옹호론이 정면으로 맞서고 있다.
고려대 통계학과 임성빈 교수 등 일부 학계 전문가들은 “코사인 유사도만으로는 표절을 단정할 수 없다”며, 분산·분포 수준의 정교한 검증 필요성을 지적하면서도 “국가대표 AI 사업에서는 설계·학습·모듈 구성의 투명한 공개가 신뢰의 핵심”이라고 강조해 왔다.
반면 스타트업 업계에서는 “정부가 ‘모든 구성요소 국산화’를 기술주권으로 이해한다면 글로벌 AI 경쟁에서 한국만 역주행하게 될 것”이라는 우려도 나온다.
기술주권의 실질 잣대…‘라이선스 리스크’가 핵심
이번 사안이 특히 민감한 이유는, 소버린 AI 사업의 정책적 출발점이 ‘미·중 빅테크 종속 리스크 해소’였기 때문이다. 정부는 미국·중국 빅테크가 갑자기 기초 모델 이용료를 올리거나 라이선스를 회수하는 상황에 대비해, 국내 인프라와 국산 모델로 공공·산업 수요를 충족시키겠다는 목표를 내세웠다.
그러나 네이버 모델의 비전 인코더가 Qwen 오픈소스 라이선스에 종속된 구조라면, 알리바바가 향후 라이선스를 변경하거나 철회할 경우 해당 모듈 교체·재학습이 필요해지는 잠재 리스크가 남는다.
빅테크 전문가는 “Qwen 측이 사용 허가를 철회할 경우, 모델 유지 자체가 불확실해질 수 있다”며 "기술주권의 핵심 잣대를 ‘성능·설계’가 아니라 ‘라이선스·통제권’에서 찾아야 한다"는 점을 지적했다.
포티투마루 이승현 부사장은 GitHub 게시글을 통해 “무익한 진흙탕 논쟁을 넘어, 무엇이 진짜 기술주권인지에 대한 명확한 기준을 세워야 한다”고 촉구했고, 배경훈 과기정통부 장관 역시 “현재의 논쟁은 한국 AI가 더 높이 도약하기 위해 반드시 거쳐야 할 성장통”이라고 평가했다.
‘국가대표 AI’의 시험대…투명성·정합성이 승부 가른다
소버린 AI 사업은 한국이 글로벌 AI 패권 경쟁에서 뒤늦게나마 독자 좌표를 찍기 위한 전략 프로젝트이자, 동시에 국가 재정과 공공 신뢰를 시험하는 거울이다. 업스테이지 논란이 공개 검증과 사과로 일단락된 직후 터진 네이버 인코더 이슈는, 개별 기업의 흑역사를 넘어 “한국형 소버린 AI는 무엇을 지키기 위한 것인가”라는 보다 근본적인 질문을 던지고 있다.
이제 공은 정부와 평가위원회, 그리고 참여 기업들에게 넘어갔다. ‘성능은 세계 표준을 좇고, 통제권은 한국이 쥐며, 오픈소스 생태계와는 공존한다’는 세 마리 토끼를 어떻게 제도·기술·거버넌스로 풀어낼지, 1월 15일 1차 평가 결과와 뒤이은 후속 조치가 한국 AI 전략의 성숙도를 가늠하는 분수령이 될 전망이다.























































