2026.04.12 (일)

  • 맑음동두천 3.0℃
  • 맑음강릉 9.0℃
  • 박무서울 6.7℃
  • 박무대전 8.0℃
  • 맑음대구 10.3℃
  • 맑음울산 11.6℃
  • 박무광주 10.9℃
  • 구름많음부산 13.9℃
  • 흐림고창 9.5℃
  • 박무제주 14.1℃
  • 흐림강화 2.5℃
  • 구름많음보은 4.5℃
  • 구름많음금산 6.6℃
  • 구름많음강진군 9.6℃
  • 맑음경주시 8.1℃
  • 구름많음거제 11.7℃
기상청 제공

빅테크

[빅테크칼럼] 구글 딥마인드 CEO, 5~10년 내 AGI 도래 예측…세계 모델·보안 AI로 기술적·사회적 도전 정면돌파

 

[뉴스스페이스=김정영 기자] 구글 딥마인드 CEO 데미스 하사비스가 최근 Axios AI+ SF 서밋에서 인공일반지능(AGI)이 5년에서 10년 내에 도래할 가능성이 크다고 예측하며, 이를 “인류 역사상 가장 변혁적인 순간”으로 평가했다.

 

하사비스는 2024년 알파폴드 연구로 노벨 화학상을 수상한 바 있으며, 노벨상이 그의 AI 위험 경고를 더 설득력 있게 전달하는 데 도움이 됐다고 밝혔다. axios.com, fortune.com, cnbc.com, techaimag.com에 따르면, 이 같은 예측은 구글의 제미나이 모델이 급속히 채택되며 오픈AI에 “코드 레드”를 촉발한 시점에 나와 주목을 받고 있다.​

 

기술적 장애물: 세계 모델과 한계


AGI 달성을 위해서는 현재의 대규모 언어 모델 확장만으로는 부족하며, 과거의 트랜스포머 아키텍처나 알파고와 같은 한두 가지 추가적인 주요 돌파구가 필요하다고 하사비스는 설명했다. 특히 물리적 현실을 시뮬레이션해 예측하는 ‘세계 모델(world models)’이 향후 12개월 내 가장 중요한 연구 분야로 꼽혔다.

 

하사비스는 구글의 제미나이 3, SIMA 2 등이 세계 모델의 초기 형태로, 로봇 훈련과 에이전트 학습 등에 활용되고 있다고 소개했다. 하지만 세계 모델의 실용화에는 여전히 높은 비용과 기술적 장벽이 존재하며, 모델의 일관성 유지와 장시간 동작 안정성 확보가 주요 과제로 남아 있다.​

 

보안 위협: AI가 막은 사이버 공격

 

하사비스는 이미 일부 AI 위험이 현실화되고 있다고 경고했다. 특히 에너지 및 수도 시스템을 표적으로 한 사이버 공격은 “임박한 위협”이며, 실제로 일부 공격이 이미 발생하고 있을 수 있다고 밝혔다. 이와 관련해 구글은 자체 개발한 ‘Big Sleep’ AI 에이전트가 최근 SQLite 취약점(CVE-2025-6965)을 발견해 악용되기 전에 패치를 완료한 사례를 소개했다.

 

이는 AI 에이전트가 실제 현장에서 취약점을 탐지하고 공격을 차단한 첫 사례로 평가받고 있다. 이후 Big Sleep은 Apple Safari의 WebKit 취약점 5건도 추가로 발견하는 등, AI 기반 보안 시스템의 중요성이 점점 커지고 있다.​

 

산업 혁신과 일자리 변화

 

기타 기술 리더들도 급격한 변화의 시대를 예고했다. 팔로알토 네트웍스 CEO 니케시 아로라는 “5년 내 거의 모든 사람의 일자리가 근본적으로 바뀔 것”이라고 전망했다. 오픈AI 이사회 의장 브렛 테일러는 “소수의 선별된 기업들이 세대를 대표하는 기업으로 부상할 것”이라고 말하며, Box CEO 아론 레비는 “기술 산업은 5년 내 누구에게나 기회가 열려 있다”고 강조했다.

 

글로벌 시장 조사 기관 RAND Corporation의 설문에 따르면, 2047년까지 모든 인간 작업이 자동화될 확률은 약 50%로 추정되며, 이는 AGI가 가져올 산업 구조 변화의 규모를 보여준다.​

 

국내외 기술 경쟁과 전망

 

구글 딥마인드 외에도 오픈AI, 앤트로픽 등 글로벌 AI 기업들이 AGI 개발을 위한 치열한 경쟁을 벌이고 있다. 앤트로픽 CEO 다리오 아마데이는 AI가 거의 모든 인간 작업을 초월할 수 있는 수준에 도달할 시점을 “2~3년 내”로 예측하며, 낙관적인 전망을 내놓기도 했다. 

 

이처럼 구글 딥마인드는 AGI 실현을 위한 기술적, 보안적, 사회적 도전을 동시에 해결하려는 노력을 이어가고 있으며, 국내외 기술 리더들은 이에 따른 산업과 일자리 구조의 급격한 변화를 예고하고 있다.

배너
배너
배너

관련기사

93건의 관련기사 더보기


[이슈&논란] 가족 사진까지 꺼낸 올트먼…화염병 테러가 드러낸 ‘AGI의 반지’ 권력전쟁

[뉴스스페이스=이현주 기자] 오픈AI 최고경영자(CEO) 샘 올트먼이 자택 화염병 테러 직후 새벽에 올린 블로그 글은 단순한 심경 고백을 넘어, AI 권력 구조와 민주주의, 그리고 미디어 책임을 둘러싼 정치·사회적 선언문에 가깝다. 4월 10일(현지시간) 오전 4시12분 전후, 미국 샌프란시스코 노스비치 지역에 위치한 올트먼 자택 대문에는 화염병이 던져졌다. 샌프란시스코 경찰에 따르면 화염병은 문과 외벽 일부를 그을렸지만, 인명 피해는 발생하지 않았다. 사건 1시간가량 뒤인 오전 5시7분, 같은 남성이 3번가에 위치한 오픈AI 본사 앞에서 건물을 불태우겠다고 협박했고, 출동한 경찰에 현장에서 체포됐다. 용의자는 20세 남성으로, 신원과 구체적인 범행 동기는 아직 공개되지 않았다. 이 사건은 챗GPT를 비롯한 생성형 AI에 대한 불안과 반발이 전 세계적으로 고조되는 가운데 발생했다는 점에서, ‘AI 공포’가 물리적 폭력으로 번진 첫 상징적 사례로 받아들여지고 있다. “이것은 내 가족 사진이다”…가장 사적인 이미지의 정치화 사건 직후 올트먼은 평소 철저히 숨겨왔던 가족 사진을 공개하는 이례적 행보를 택했다. 그는 블로그에서 “이것은 내 가족 사진이다. 나는 그

[빅테크칼럼] 엔비디아 독주에 칼 빼든 앤트로픽…‘3.5GW 동맹’ 넘어 자체 AI 칩까지 노린다

[뉴스스페이스=김정영 기자] 미국 AI 스타트업 앤트로픽(Anthropic)이 자체 AI 칩 개발을 검토하고 있다고 로이터 통신은 9일(현지시간) 복수의 소식통을 인용해 보도했다. 전 세계적인 AI 수요 폭증으로 고성능 반도체 품귀와 가격 급등이 이어지자, 중장기적으로 안정적인 연산 인프라를 확보하기 위한 전략의 하나라는 해석이 나온다. 다만 논의는 극초기 단계로, 아직 전담 조직도 꾸려지지 않았고 구체적인 칩 아키텍처 설계 역시 착수하지 않은 상태라며, 상황에 따라 프로젝트가 전면 백지화될 수 있다는 점을 소식통들은 분명히 했다. 로이터는 첨단 AI 칩 설계·생산 체제를 구축하는 데 숙련 공학자 확보와 제조 파트너십까지 감안하면 약 5억달러(약 7400억원) 안팎의 초기 비용이 들어갈 수 있다고 전했다. GPU 의존도와 ‘멀티 벤더’ 전략의 한계 앤트로픽은 현재 엔비디아 GPU뿐 아니라 아마존웹서비스(AWS)의 ‘트레이니엄(Trainium)’, 구글 클라우드의 텐서 처리 장치(TPU) 등 빅테크의 전용 AI 칩을 폭넓게 사용하는 ‘멀티 벤더’ 구조를 구축해 왔다. AWS는 앤트로픽의 초기 핵심 파트너이자 주요 AI 고객사로, 자사 고성능 칩과 슈퍼컴퓨팅 인

[빅테크칼럼] 구글 CEO "AI가 거의 모든 SW 무너뜨릴 것"... 순다르 피차이의 경고가 가리키는 사이버 보안의 ‘급변점’

[뉴스스페이스=이현주 기자] 구글 CEO 순다르 피차이가 “AI 모델이 세상에 존재하는 사실상 모든 소프트웨어를 무너뜨리게 될 것”이라고 공개 경고하면서, AI 확산의 숨은 뇌관으로 사이버 보안 리스크가 다시 전면에 부상하고 있다. nytimes, Techmeme, searchenginejournal, securityaffairs에 따르면, 그는 최근 스트라이프 공동창업자 존 콜리슨과 투자자 엘라드 길이 진행하는 팟캐스트 ‘Cheeky Pint’에 출연해, 메모리·전력·웨이퍼 등 하드웨어 공급 병목과 더불어 보안 취약성이 AI 산업의 성장 속도를 제약할 수 있는 핵심 변수라고 지목했다. 특히 AI가 제로데이(0day) 취약점의 ‘발견 비용’을 극단적으로 낮추면서, 소프트웨어 생태계 전반에 걸친 구조적 충격이 도래할 수 있다는 점을 수치로 뒷받침한 셈이다. “이미 무너지고 있을지도 모른다”는 피차이의 문제의식 피차이는 해당 팟캐스트에서 “이 모델들은 분명히 세상에 존재하는 사실상 모든 소프트웨어를 무너뜨리게 될 것이다. 어쩌면 이미 그렇게 되고 있는지도 모른다, 아직 모를 뿐”이라고 말했다. 진행자가 SSH 같은 기초 프로토콜까지 위험해지는 것이냐고 되묻자 그