[뉴스스페이스=이은주 기자] 엔비디아가 에이전틱 코딩 애플리케이션 코덱스를 통해 오픈AI의 신규 GPT-5.5 모델을 1만명 이상의 직원에게 배포했다. 이는 현재까지 기업 내부에서 이루어진 최첨단 AI 모델 도입 사례 중 최대 규모로 꼽힌다.
benzinga, NVIDIA Blog에 따르면, 엔비디아가 오픈AI의 최첨단 코딩 에이전트 ‘코덱스(Codex)’와 GPT‑5.5를 전사적으로 도입하면서, ‘AI가 사람을 돕는 수준’을 넘어 ‘AI를 전제로 조직을 재설계하는 단계’로 진입했다는 평가가 나온다. 젠슨 황 CEO가 “광속으로 도약하자, AI의 시대에 오신 것을 환영한다”고 선언한 배경에는, 비용 구조와 개발 프로세스가 눈에 띄게 바뀔 만큼의 정량적 생산성 개선이 확인됐기 때문이다.
1만명 ‘전사 도입’이 갖는 의미
엔비디아는 GB200 기반 ‘코덱스 랩(Codex Lab)’ 환경을 통해 전 세계 1만명이 넘는 직원을 대상으로 GPT‑5.5 기반 코덱스를 배포했다. 해당 코덱스는 엔지니어링, 제품 개발, 법무, 마케팅, 재무, 영업, 인사, 운영, 개발자 프로그램 등 사실상 모든 조직에서 사용 가능하도록 풀렸다.
샘 올트먼 오픈AI CEO는 자신의 소셜미디어 계정을 통해 젠슨 황과 주고받은 이메일을 공개하며, “엔비디아와 함께 코덱스를 전사에 배포하는 새로운 시도를 진행했다”고 언급해 이번 프로젝트가 단순 ‘파일럿’이 아닌, 글로벌 빅테크 최초 수준의 ‘엔터프라이즈 규모 전면 도입’임을 부각했다. 업계에선 개별 팀·부서 단위가 아닌, 기업 전체를 한 번에 AI‑네이티브 환경으로 전환한 첫 사례 중 하나로 의미를 평가하고 있다.
디버깅 ‘며칠→몇 시간’, 실험 ‘수주→하룻밤’…생산성 혁신
정책적·경영적 수사와 별개로, 실제 현장에서 측정된 수치는 상당히 공격적이다. 엔비디아와 국내외 IT 전문 매체 보도를 종합하면 엔지니어들이 체감하는 대표적인 변화는 다음과 같다.
▲복잡한 디버깅 작업: 기존에 며칠 걸리던 이슈가 몇 시간 안에 마무리되는 수준으로 단축 ▲멀티파일·대형 코드베이스 실험: 수주(數週)가 필요하던 실험이 하룻밤 사이에 끝나는 케이스가 속출 ▲내부 피드백: 얼리 액세스 사용자들은 코덱스를 “삶을 바꿔놓는 수준”, “정말 놀랍다”고 표현한 것으로 전해진다.
모델 성능 벤치마크도 이를 뒷받침한다. GPT‑5.5는 복잡한 명령줄·시스템 작업을 평가하는 Terminal‑Bench 2.0에서 82.7%를 기록해, 전작 GPT‑5.4(75.1%) 대비 약 7.6%p 성능이 향상된 것으로 나타났다. 실제 개발 환경과 유사한 과제를 다루는 SWE‑Bench Pro에서도 58.6%를 기록, 이전 모델 대비 단일 패스(one‑shot)로 끝내는 작업 비율을 끌어올렸다는 평가다.
지식·업무 전반을 평가하는 GDPval 지표에서도 GPT‑5.5는 84.9%로 GPT‑5.4보다 1.9%p 개선된 것으로 집계됐다. 수치 자체만 보면 경쟁사 모델 대비 절대 성능에서 밀리는 항목도 있으나, “비용 대비 효율”이라는 현실적인 기준에서 기업용에 최적화됐다는 평가가 우세하다.
블랙웰·GB200 NVL72가 만든 ‘토큰 경제학’
이번 전사 도입의 숨은 키워드는 ‘토큰 단가’와 ‘전력당 처리량’이다. GPT‑5.5는 엔비디아의 최신 AI GPU 아키텍처인 블랙웰(Blackwell) 기반으로 훈련됐고, 추론 역시 GB200 NVL72 랙 스케일 시스템에서 돌아가도록 공동 설계·최적화됐다.
엔비디아와 관련 보도에 따르면, GB200 NVL72 인프라는 이전 세대 시스템 대비 토큰 100만 개당 비용을 최대 35배 절감하고, 메가와트당 초당 토큰 처리량을 최대 50배까지 끌어올리는 것으로 소개된다.
이는 단순한 기술 스펙을 넘어, ‘프론티어 모델을 사내에 상시 띄워두는 것이 경제적으로 가능한가’라는 질문에 대한 현실적인 답이다. 토큰 지연 시간 측면에서도 GPT‑5.5는 서비스 환경에서 GPT‑5.4와 유사한 토큰당 레이턴시를 유지하면서, 같은 작업을 더 적은 토큰으로 처리하도록 설계됐다는 점이 강조된다.
다시 말해, “더 똑똑해졌지만 느려지지 않았고, 토큰은 오히려 덜 쓴다”는 구조를 인프라와 모델 양쪽에서 동시에 맞춰낸 셈이다.
10GW·최대 1,000억달러…‘칩 공급사’에서 ‘AI 인프라 동맹’으로
이번 전사 도입은 이미 예고됐던 양사 간 ‘초대형 인프라 동맹’의 연장선에 있다. 2025년 9월, 엔비디아와 오픈AI는 최소 10GW 규모의 엔비디아 시스템을 오픈AI 차세대 AI 인프라에 투입하는 파트너십 의향서를 발표했다. 당시 발표에 따르면 엔비디아는 인프라가 기가와트 단위로 배포될 때마다 합산 최대 1,000억달러(약 수백조원)까지 투자할 수 있다고 밝혔다.
양사는 오픈AI의 모델·인프라 소프트웨어와 엔비디아의 하드웨어·소프트웨어 로드맵을 공동 최적화해, 사실상 “수 기가와트급 AI 팩토리”를 함께 설계하는 구조로 협력 범위를 확장하고 있다. 젠슨 황은 이 프로젝트를 두고 “역사상 가장 큰 규모의 AI 인프라 프로젝트”라며, “지능의 새로운 시대를 위한 10기가와트를 구축하는 것”이라고 표현했다.
다만 올해 2월 영국 파이낸셜타임스(FT) 보도에 따르면, 초기 최대 1,000억달러로 거론되던 투자 규모가 300억달러 수준의 지분 투자로 조정될 가능성도 제기된 바 있어, 구체적 구조는 향후 확정이 필요한 상황이다. 이는 ‘칩 공급사’이자 ‘인프라 투자자’로서 엔비디아의 위상을 어디까지 확장할지 가늠하게 하는 대목이다.
‘AI 쓰는 개발자’에서 ‘AI 전제로 짜인 조직’으로
엔비디아의 이번 행보는 코딩 보조 툴을 하나 더 깔았다는 수준이 아니다. 젠슨 황은 최근 인터뷰에서 “AI와 함께 일할 줄 아는 소프트웨어 엔지니어가 가장 인기 있는 엔지니어”라며, “엔비디아에서 가장 성공적인 직원은 이 기술을 적극적으로 받아들이는 사람들”이라고 강조했다.
실제 사내에서는 소프트웨어 조직뿐 아니라 법무·마케팅·인사 등 비개발 조직까지 자연어 프롬프트를 통해 문서 작성, 리서치, 데이터 분석, 반복 업무 자동화에 코덱스를 활용하도록 독려하고 있다. GPT‑5.5가 코딩·추론·지식 업무 전반에서 개선된 성능을 보이면서, 엔비디아는 ‘AI 활용 역량’을 핵심 직무역량의 일부로 사실상 규정한 셈이다.
동시에, 이러한 전사 도입은 오픈AI와 앤트로픽(Claude Code), 그리고 다른 빅테크 간 ‘에이전틱 코딩’ 경쟁 구도를 더욱 자극할 전망이다. GPU, 모델, 인프라, 에이전트 툴 체계를 수직적으로 통합한 엔비디아‑오픈AI 축이 어느 정도의 생산성·수익성 개선 데이터를 쌓아내느냐에 따라, 글로벌 기업들의 AI 도입 전략과 레퍼런스 아키텍처도 크게 요동칠 가능성이 높다.
이제 관전 포인트는 하나로 정리된다. ‘모든 직원에게 코덱스를 쥐여준’ 엔비디아가 1~2년 뒤 실제 재무제표와 개발 속도, 제품 출시 주기에서 어느 정도의 차별적 결과물을 보여주느냐가, 전 세계 대기업들의 ‘AI 전사 도입’ 타이밍을 재는 기준선이 될 것이다.























































