
[뉴스스페이스=김정영 기자] 중국 빅테크기업 텐센트가 AI 시장에 새로운 바람을 일으켰다. 스마트폰, IoT 및 엣지 디바이스 등 자원이 제한된 환경에서도 고성능 인공지능을 활용할 수 있도록 설계된 0.5B, 1.8B, 4B, 7B 파라미터 크기의 혼원(Hunyuan) 오픈소스 AI 모델 4종을 공식 출시한 것이다.
Tencent 공식발표와 AASTOCKS, OfficeChai 등의 자료에 따르면, 8월 4일(현지시간) 발표된 이번 신제품은 미국 기반 대형 연구소들이 초거대 언어 모델에 집중하는 것과는 달리, 중국의 전략적 전환점을 상징한다.
가장 주목받는 7B 모델은 오픈AI의 o1-Mini와 동등하거나 그 이상의 성능을 입증했다. 예를 들어 ▲수학 벤치마크 MATH500에서 93.7점 ▲질문 응답 DROP에서 85.9점 ▲수학 경시대회 AIME 2024에서 81.1점을 기록했다.
OfficeChai는 “GPQA, MATH500, AIME 2024, Livecodebench 등 대다수 벤치마크에서 혼원 7B 모델이 오픈AI o1-mini를 능가했다”고 보도했다.
소비자용 GPU만 있어도…압도적 확장성 및 최적화
이번 혼원 시리즈의 강점은 높은 가성비와 쉬운 배포다. 네 모델 모두 소비자용 단일 그래픽카드로 구동 가능하며, SGLang, vLLM, TensorRT-LLM 등 주류 LLM 서비스 프레임워크와 완벽히 연동된다. 특히 256K 토큰의 초장문 컨텍스트 윈도우를 기본 지원, 50만 단어에 달하는 방대한 문서도 한 번에 분석·처리가 가능해 대용량 논문 검색, 계약서 해석 등 고난도 업무에 적합하다.
텐센트가 자체 개발한 ‘AngleSlim’ 압축 툴은 FP8(8비트 부동소수) 정적 양자화, INT4(4비트 정수) 양자화를 GPTQ·AWQ 알고리즘과 결합해 정확도 저하 없이 추론 속도를 극대화한다. 실제로 MMLU 79.82점, GSM8K 88.25점, MATH 74.85점 등 다양한 과업에서 기존 경쟁 모델과 대등하거나 높은 수치를 확인했다.
‘하이브리드 추론’과 에이전트 지향…실용 제품 도입 가속화
혼원 시리즈는 ‘하이브리드 추론’ 모드로 사용자가 신속한 결론 도출(빠른 사고)과 고도의 논리 전개(느린 사고) 중 필요에 따라 선택할 수 있도록 했다. 또 멀티 에이전트 업무 최적화에도 강점을 보이며, BFCL-v3, τ-Bench, C3-Bench 같은 벤치마크에서 최상위 점수(예: C3-Bench Hunyuan-7B-Instruct 68.5점)를 기록했다.
배포 관점에서도 Arm, Qualcomm, Intel, MediaTek 등 글로벌 칩셋 제조사들이 지원을 공식화했으며, 텐센트 미팅, 위챗 리딩 등 실제 제품에 이미 융합 적용 중이어서 산업계 신뢰도 또한 높다.
중국 AI, ‘작고 강한’ 오픈 이노베이션의 새 장 열다
중국 빅테크들의 오픈소스 AI 전략은 ‘작지만 강력한 모델’로 전환하면서, 미국 진영 초거대 AI 대비 실질적인 경쟁력과 틈새시장을 구축하고 있다는 평가를 받고 있다. 업계 전문가는 “중국 AI가 미국에 비해 더 가볍고 효율적인 오픈소스 모델 분야에서 독자적인 우위를 확보하고 있다”고 밝혔다.
혼원 AI 시리즈는 GitHub, Hugging Face 등 주요 플랫폼을 통해 오픈소스로 공개됐다. 이를 통해 글로벌 개발자들은 맞춤형 압축, 다양한 API 연동, 최적화된 성능을 자유롭게 활용할 수 있게 됐다.