2025.12.13 (토)

  • 흐림동두천 0.1℃
  • 흐림강릉 5.3℃
  • 서울 1.3℃
  • 대전 2.3℃
  • 대구 6.1℃
  • 울산 7.3℃
  • 광주 3.3℃
  • 흐림부산 11.0℃
  • 흐림고창 2.6℃
  • 제주 9.3℃
  • 흐림강화 0.0℃
  • 흐림보은 0.7℃
  • 흐림금산 2.5℃
  • 흐림강진군 4.3℃
  • 흐림경주시 7.0℃
  • 흐림거제 9.6℃
기상청 제공

빅테크

[빅테크칼럼] 구글, 비공개 AI 모델 ‘볼트젬마(VaultGemma)’ 공개…프라이버시 보호와 AI 성능 '새 기준'

 

[뉴스스페이스=김시민 기자] 구글 AI 리서치와 딥마인드는 10억 매개변수 규모의 차등 프라이버시(Differential Privacy, DP)를 완전 적용해 처음부터 학습한 오픈소스 언어모델 ‘볼트젬마(VaultGemma)’를 9월 13일(현지시간) 공식 발표했다.

 

이는 지금까지 공개된 모델 중 가장 큰 규모의 DP 적용 LLM(대규모 언어 모델)으로, AI 민감 정보 보호·암기 공격 방지의 새로운 기준을 제시한다.

 

research.google, MarkTechPost AI Media Inc, VaultGemma: A Differentially Private Gemma Model, Huggingface, therift.ai, StartupHub.ai, Best AI Tools, Theme Bazar BD에 따르면, 볼트젬마는 Gemma 2 모델과 동일한 13조 토큰 규모 데이터셋을 활용했으며, 웹문서·코드·과학 논문 등 영어 텍스트를 주로 학습 대상으로 삼았다.

 

차등 프라이버시 기법의 핵심인 DP-SGD(확률적 경사 하강법에 노이즈 추가 및 그래디언트 클리핑 결합)를 활용해, 훈련 데이터 내 개별 레코드가 모델에 미치는 영향을 극소화하는 공식적인 시퀀스 수준 프라이버시 보장(ε ≤ 2.0, δ ≤ 1.1e-10)을 달성했다. 이 과정은 2048대의 TPUv6e 클러스터를 활용해 대규모 병렬처리로 진행됐다.

 

구글 연구팀은 최초로 차등 프라이버시 학습에 특화된 스케일링 법칙을 개발, 컴퓨팅 자원과 프라이버시 수준, 모델 성능 간의 균형을 과학적으로 예측하고 최적화했다. 이 덕분에 볼트젬마는 DP 기반 훈련에서 흔히 발생하는 학습 불안정성 문제를 완화하고, 효율적인 자원 배분과 훈련 시간 단축이 가능해졌다.

 

다만 성능 측면에서 볼트젬마는 비공개 모델 대비 어느 정도 격차가 있다. 대표적으로 학술 벤치마크 ARC-C 점수는 볼트젬마가 26.45점, Gemma-3 1B는 38.31점으로, 약 5년 전 비공개 GPT-2 수준의 성능을 보인다. PIQA, TriviaQA 등 여러 평가에서 성능 저하는 존재하나, 이는 강력한 프라이버시 보장과 맞바꾼 실용적 타협으로 분석된다. 특히 암기율 분석 실험에서는 훈련 데이터의 구체적 문장 재생산이 전혀 발견되지 않아 볼트젬마의 프라이버시 보호 효과가 실증됐다.

 

구글은 볼트젬마 모델 가중치와 기술 보고서, 연구 논문을 공개해 연구자와 개발자가 직접 접근하고 실험할 수 있도록 했다. 이는 민감 분야(의료, 금융, 정부 등)에서 AI 활용 시 개인정보 보호 문제를 해소하고, 글로벌 데이터 규제 강화에 대응하려는 전략적 의도로 풀이된다. 경쟁사들도 이와 같은 프라이버시 중심 AI 개발에 속도를 내고 있어, AI산업 전반에 의미 있는 파급 효과를 예고한다.

 

이번 볼트젬마 출시는 AI 학계와 산업계에서 프라이버시 보호를 필수로 요구하는 환경 변화 속에서도, 강력한 AI 능력과 보안성을 함께 달성할 수 있음을 입증한 중요한 이정표로 평가된다. 구글이 공개한 차등 프라이버시 스케일링 법칙은 후속 연구와 개발에 있어 핵심 가이드라인 역할을 할 전망이다.

배너
배너
배너

관련기사

93건의 관련기사 더보기


[내궁내정] AI가 수능출제? ‘불수능’ 후폭풍과 AI 도입 명분…교육과정평가원, 2.5억 입찰공고 낸 속사정

[뉴스스페이스=이종화 기자] <편집자주> 유튜브, 인스타 등에서 활동하는 인플루언서들이 '협찬을 받지 않았다', '광고가 아니다'라는 사실을 보이기 위해 "내 돈 주고 내가 샀다"라는 뜻의 '내돈내산'이라는 말이 생겼다. 비슷한 말로 "내가 궁금해서 결국 내가 정리했다"는 의미의 '내궁내정'이라고 이 기획코너를 명명한다. 우리 일상속에서 자주 접하는 소소한 얘기거리, 궁금증, 호기심, 용어 등에 대해 정리해보는 코너를 기획했다. 도입 32년째를 맞은 대학수학능력시험(수능)에 인공지능(AI) 기반 자동 문항 생성 시스템을 도입하기 위한 정부의 사전 작업이 본격화됐다. 수능 출제기관인 한국교육과정평가원(이하 평가원)은 최근 ‘AI 기반 수능 자동 문항 생성 기능 개발을 위한 정보화전략계획(ISP)’ 입찰 공고를 내고, 12월 초 제안서 평가를 마무리한 뒤 이달 중 사업자를 선정해 계약에 들어갈 예정이다. 선정된 업체는 내년 2월까지 시스템 구축·관리 비용, 사업 규모, 기술·데이터 요건, 기대 효과 등을 담은 종합 보고서를 제출하게 되며, 이 결과는 향후 본 사업 예산을 기획재정부에 요구하는 근거 자료로 활용된다.​ 이번 ISP 사업의 추정가격은 약

[이슈&논란] "챗GPT와 대화하다 망상에 빠져 모친 살해했다" 오픈AI에 소송…AI의 정신건강 책임 '논란'

[뉴스스페이스=윤슬 기자] 미국 코네티컷주 그리니치에 거주하던 스타인-에릭 솔버그(56)가 지난 8월 어머니 수잰 애덤스(83)를 교살한 뒤 자살한 사건과 관련, 챗GPT 개발사 오픈AI가 망상을 부추겼다는 이유로 유족들로부터 소송을 당했다. 이번 사건은 챗GPT가 자살뿐 아니라 타인을 해치는 행동까지 부추겼다고 주장한 첫 사례로, 미국 내 AI 기업의 안전성에 대한 논란을 다시 불러일으키고 있다.​ 사건 개요와 소장 주장 유족들은 캘리포니아주 법원에 제출한 소장에서, 솔버그가 사건 이전 몇 달간 챗GPT와 대화하며 심각한 망상에 빠졌다고 주장했다. 챗GPT는 솔버그에게 “신성한 목적을 위해 선택받았다”며 자신감을 심어주고, 어머니를 ‘적’ ‘감시자’ ‘프로그램된 위협’으로 규정하도록 했다는 점이 소장에 포함됐다. 또한, 챗GPT는 어머니의 프린터에서 나오는 불빛이 감시 장치라거나, 차량 환풍구를 통해 환각 물질을 주입하려 한다는 망상에 동조하는 등 위험한 대화를 이어갔다고 유족들은 지적했다. 실제 솔버그가 사용한 챗GPT 모델인 ‘GPT-4o’는 동조적 경향이 강해 정신적으로 취약한 사용자에게 부정적 영향을 줄 수 있다는 비판이 꾸준히 제기된 바 있다.​​

[이슈&논란] 올트먼 "홍채가 곧 지갑…월드페이로 송금·환전·결제까지 가능"

[뉴스스페이스=윤슬 기자] 샘 올트먼이 창립한 가상화폐 프로젝트 '월드페이'는 홍채인식을 이용한 신원확인 시스템으로 글로벌 금융시장의 혁신을 예고하고 있다. 현재 전 세계 1,700만명이 홍채 스캔을 완료했으며, 월드앱은 출시 7개월 만에 월평균 200만명의 일일 활성 이용자를 기록하며 가상자산 지갑 분야에서 세계 1위를 차지했고, 이 기술은 앞으로 오프라인 결제와 카드 연계 등으로 글로벌 비즈니스 확장을 예고하고 있다. 실리콘밸리의 대표적 AI 업계 지도자인 샘 올트먼은 2019년부터 AI와 인간을 구별하는 혁신적 비전인 '홍채 인증'을 추진했고, 이번 행사는 그 연장선상에 있다. 올트먼은 대중에게 "인공지능 세상에서 프라이버시와 신원을 보호하는 것이 필수"라고 강조하며, '월드ID' 인증을 통해 개인의 존재를 증명하면서도 개인정보 보호와 사기 방지 기술을 동시에 구축하고자 했다. 월드앱과 오브(Orb) 기기를 활용한 홍채인식은 눈 만으로 인증이 가능하며, 이 기술은 이미 글로벌 사용자를 대상으로 수백만 건의 거래가 이루어지고 있다. 이 시스템은 특히 최근 '틴더'와의 협업으로 유명하는데, 인간임을 인증받은 사용자끼리만 매칭하는 기능이 도입돼 개인정보 유출

[빅테크칼럼] 마이크로소프트 AI 책임자 "사람들을 위험에 빠뜨릴 경우 작업 중단" 서약…"초지능의 그림자와 책임의 선언"

[뉴스스페이스=김정영 기자] 마이크로소프트의 책임 있는 인공지능(AI) 개발 방침은 글로벌 AI 경쟁 속에서도 눈길을 끌고 있다. 블룸버그, CNBC 등의 기사들에 따르면, 마이크로소프트는 "AI 시스템이 인류에 위협이 될 가능성이 있다면 개발을 중단하겠다"는 엄격한 약속을 다시 한 번 강조하며, 업계에서 차별화된 책임감 있는 AI 전략을 추진하고 있다. 특히, 마이크로소프트의 AI 책임자 무스타파 술레이만은 인터뷰를 통해 "우리는 통제력을 벗어난 시스템을 계속 개발하지 않을 것"이라며, 인본주의적 초지능(살아있는 인간 사회에 유익하도록 설계된 AI) 구축의 중요성을 강조했다. 이와 함께, 글로벌 AI 규제와 안전성 확보에 대한 목소리도 계속 커지고 있다. Future of Life Institute의 12월 보고서는 세계 주요 AI 기업들이 강력한 안전 프레임워크를 갖추지 못했음을 지적하며, "AI 기반 해킹 및 위험성 증가"와 관련한 우려를 제기했다. 이러한 배경에서, 700명 이상의 글로벌 인사들이 '초지능 개발 일시 정지'를 촉구하는 공개 서한에 서명하는 등, 과학적·사회적 대응의 필요성은 날로 커지고 있다.​ 한국에서도 정부와 학계는 AI 안전성 강