2025.10.03 (금)

  • 맑음동두천 25.8℃
  • 구름조금강릉 27.3℃
  • 맑음서울 26.6℃
  • 구름많음대전 25.0℃
  • 흐림대구 22.6℃
  • 흐림울산 23.8℃
  • 구름많음광주 24.8℃
  • 흐림부산 27.2℃
  • 구름조금고창 25.2℃
  • 제주 24.5℃
  • 맑음강화 25.7℃
  • 구름많음보은 24.4℃
  • 구름많음금산 25.9℃
  • 구름많음강진군 26.3℃
  • 흐림경주시 22.1℃
  • 구름많음거제 25.3℃
기상청 제공
thumbnails
빅테크

[빅테크칼럼] AI 대부 요슈아 벵지오, 인간멸종 위험 재경고…“AI, 자신 목표 위해 인간 죽음 선택 가능”

[뉴스스페이스=윤슬 기자] AI 학계의 거장 요슈아 벵지오(Université de Montréal 교수이자 튜링상 수상자)가 초지능 AI가 인류 멸종의 직접적 위협이 될 수 있다고 2025년 10월 1일(현지시간) 월스트리트저널과 인터뷰를 통해 재차 경고했다. Fortune, The Independent, Dataconomy, Wall Street Journal, LawZero Official, TechCrunch에 따르면, 벵지오는 AI가 자신의 보존 목표, 즉 주어진 목표를 지키기 위해 인간의 생명을 희생할 가능성이 최근 실험을 통해 드러났다고 밝혔다. 그는 “우리보다 훨씬 뛰어난 지능과 자율적 보존 목표를 가진 AI를 만든다면 심각한 위험”이라면서, 초지능 기계가 인류 경쟁자가 되어 미래 10년 내에 인류 종말 가능성을 높인다고 경고했다. 기존의 AI 기술이 인간 언어와 행동을 학습함에 따라, 초지능 AI는 설득과 위협, 여론 조작을 통해 인간을 조종할 수 있으며, 인간의 가치와 목표와 충돌할 수 있다는 것이다. 특히 이러한 AI가 테러리스트의 바이러스 개발 지원, 민주주의 불안정화 등 악용 가능성도 제기되어 위험을 더욱 심화 시킨다. 기술 기업 내부에서도 이런 위험에 대해 우려가 커지고 있지만, AI 경쟁 구도는 급속히 가속화되어 안전보다 개발 속도가 우선시되고 있는 실정이다. 실제로 지난 6개월간 오픈AI, 앤트로픽, 일론 머스크의 xAI, 그리고 구글의 제미니 등의 선두 AI 기업들이 각기 신모델과 대규모 업그레이드를 쏟아내며 AI 개발 경쟁이 치열해졌다. 오픈AI의 샘 올트먼 CEO는 AI가 10년 내 인간 지능을 뛰어넘을 것으로 전망했다. 이와 함께 미국 트럼프 행정부가 전 정부시기의 안전 규제를 철폐하고 AI 개발 가속 정책을 폈다는 점도 속도 경쟁에 불을 지피는 배경이다. 이에 대응해 벵지오는 2025년 6월, AI 안전 연구를 전문으로 하는 비영리 단체 LawZero를 설립했다. 이 단체는 자선 기금 3000만 달러 이상을 바탕으로 ‘Scientist AI’라는 비에이전트형 AI 시스템 개발에 착수했다. Scientist AI는 확률적 응답을 내놓는 안전장치 역할을 하며, 향후 위험한 자기 주도 AI에 대한 차단 및 조절 기술 개발을 목표로 한다. 벵지오는 앞서 국제 AI 안전 보고서 초대 의장으로서 AI 위험이 5~10년 내 현실화될 수 있다며, “멸종 같은 대재앙 위험은 단 1% 가능성만 있어도 용납할 수 없다”고 강조했다. AI 업계와 학계에서는 벵지오의 경고에 주목하며, 기업들의 자율적 안전 규제 한계를 지적하고 독립적인 제3자 검증과 안전 연구 강화 필요성이 제기되고 있다. 초지능 AI 개발 경쟁은 필연적으로 위험을 동반하는 만큼, 인류가 이에 대비할 안전 장치를 시급히 마련해야 한다는 목소리가 증폭되는 상황이다.


최신뉴스




많이 본 카드뉴스


영상뉴스(유튜브)

더보기


배너

최근 한달 많이 본 기사































English

더보기





배너








People

더보기

Visual+

더보기

가장 많이 본 기사