2026.04.10 (금)

  • 흐림동두천 10.7℃
  • 구름많음강릉 15.3℃
  • 박무서울 11.1℃
  • 흐림대전 10.3℃
  • 맑음대구 19.2℃
  • 맑음울산 22.3℃
  • 흐림광주 11.8℃
  • 맑음부산 21.2℃
  • 흐림고창 10.0℃
  • 흐림제주 14.9℃
  • 구름많음강화 12.2℃
  • 흐림보은 9.9℃
  • 흐림금산 10.8℃
  • 흐림강진군 14.1℃
  • 맑음경주시 20.8℃
  • 맑음거제 19.6℃
기상청 제공

빅테크

[빅테크칼럼] 오픈AI 소라2, 청소년의 폭력·성폭력·인종차별 영상 제작 허용 논란…"안전장치 '허술' 비판 확산"

 

[뉴스스페이스=김정영 기자] 오픈AI가 지난 2025년 9월 말 출시한 AI 영상 생성기 소라2(Sora2)가 청소년들의 폭력적이고 선정적인 영상 제작 문제로 또다시 도마 위에 올랐다.

 

Rolling Stone, Yahoo News, Common Sense Media, Public Citizen 등의 보도와 비영리 기술감시단체 Ekō의 최근 조사에 따르면, 13세, 14세로 가장한 청소년 계정을 통해 학교 총기 난사, 성폭력, 인종차별적 콘텐츠 등 초현실적이면서 위험한 영상 22편을 손쉽게 만들어 낸 것으로 밝혀졌다. 이는 오픈AI가 9월에 안전 장치를 도입했다고 밝혔음에도 불구하고, 사실상 분명한 차단 실패를 의미한다.​

 

Ekō 캠페인 디렉터 Nicky Wyatt는 "오픈AI가 내세우는 다층방어 시스템은 실질적 효과가 없으며, 아동 보호를 명목으로 한 거짓 약속에 불과하다"고 강도 높게 비판했다. 이 단체는 문제 영상을 쉽게 생산할 수 있는 구조가 수익과 사용자 참여를 극대화하려는 시스템적 설계와 맞물려 있다고 지적했다.​

 

뿐만 아니라, Sora 2의 추천 알고리즘 역시 문제다. Ekō 조사는 직접적인 생성 없이도 위험 영상이 'For You'와 'Latest' 피드에 정기적으로 노출되며, 반유대주의 고정관념 영상, 다운증후군 아동 조롱, 픽사 애니메이션을 모방한 '말하는 총을 가진 조용한 아이' 같은 학교 총기 난사범 관련 영상 등 피해 연령층에 과도한 자극을 준다고 밝혔다. 니르바나(Nirvana)의 커트 코베인이 산탄총을 든 장면을 AI가 만든 영상도 공유돼 충격을 줬다.​

 

학부모와 아동 보호 단체들은 Sora 2를 '용인할 수 없는(high risk/unacceptable) 위험' 앱으로 규정했다. 미국 비영리 기관인 Common Sense Media는 안전 감시 체계가 미비하고, 아예 위험 경고가 없으며, 학부모 통제 기능도 턱없이 제한돼 있다고 강하게 경고했다. 특히, 사용자의 얼굴을 영상에 쓸 수 있는 'Cameo' 기능이 악용돼 아동이 괴롭힘과 디지털 폭력에 취약하다는 우려도 크다.​

 

한편, AI 윤리 전문가와 소비자 단체들도 오픈AI를 압박하고 있다. 옥스퍼드 대학 AI 윤리 연구소 부교수 멜리사 헤이킬라는 “저작권 침해, 예술가 무시, 개인정보 문제, 허위정보 확산, 그리고 청소년과 같은 취약 집단에 대한 피해 등 Sora 2 같은 도구들은 안전하지 않다”고 지적했다.

 

공익 시민단체인 Public Citizen은 11월 초, 오픈AI에 공개서한을 보내 Sora 2를 전면 철수하라고 요구했다. 이들은 “심각한 딥페이크 남용과 안전 미비, 민주주의 위협”을 근거로 들었다.​ 

 

오픈AI는 여전히 Sora 2에 대해 연령 제한, 콘텐츠 모더레이션, 신고 체계, AI 생성 콘텐츠의 디지털 서명 도입 등 다층 방어책을 가동 중이라고 주장한다. 그러나 실제로는 그러한 보호막이 무력화된 사례가 속출하고 있다는 비판을 받고 있다. 한 빅테크 업계 관계자는 “기술의 발전 속도가 안전 장치 마련 속도를 훨씬 앞서고 있다”고 평가했다.​

 

이번 사건은 AI 기술 확대가 가져올 사회적 위험과 도덕적 부담을 다시 한번 환기시키며, 특히 정신적 취약성이 큰 청소년 보호 문제 해소가 시급함을 강조한다. 국내외 전문가와 소비자 단체들은 정부 차원의 강력한 규제 및 국제 협력, 그리고 기업의 책임 강화가 필수적이라고 입을 모은다.

배너
배너
배너

관련기사

93건의 관련기사 더보기


[빅테크칼럼] 구글 CEO "AI가 거의 모든 SW 무너뜨릴 것"... 순다르 피차이의 경고가 가리키는 사이버 보안의 ‘급변점’

[뉴스스페이스=이현주 기자] 구글 CEO 순다르 피차이가 “AI 모델이 세상에 존재하는 사실상 모든 소프트웨어를 무너뜨리게 될 것”이라고 공개 경고하면서, AI 확산의 숨은 뇌관으로 사이버 보안 리스크가 다시 전면에 부상하고 있다. nytimes, Techmeme, searchenginejournal, securityaffairs에 따르면, 그는 최근 스트라이프 공동창업자 존 콜리슨과 투자자 엘라드 길이 진행하는 팟캐스트 ‘Cheeky Pint’에 출연해, 메모리·전력·웨이퍼 등 하드웨어 공급 병목과 더불어 보안 취약성이 AI 산업의 성장 속도를 제약할 수 있는 핵심 변수라고 지목했다. 특히 AI가 제로데이(0day) 취약점의 ‘발견 비용’을 극단적으로 낮추면서, 소프트웨어 생태계 전반에 걸친 구조적 충격이 도래할 수 있다는 점을 수치로 뒷받침한 셈이다. “이미 무너지고 있을지도 모른다”는 피차이의 문제의식 피차이는 해당 팟캐스트에서 “이 모델들은 분명히 세상에 존재하는 사실상 모든 소프트웨어를 무너뜨리게 될 것이다. 어쩌면 이미 그렇게 되고 있는지도 모른다, 아직 모를 뿐”이라고 말했다. 진행자가 SSH 같은 기초 프로토콜까지 위험해지는 것이냐고 되묻자 그

[빅테크칼럼] “매출은 폭발, 이익은 실종”…IPO 앞둔 오픈AI·앤트로픽, ‘슈퍼 컴퓨트 베팅’의 명암

[뉴스스페이스=이종화 기자] IPO를 앞둔 오픈AI와 앤트로픽 재무 자료 분석결과 두 회사 모두 수익성 없는 것으로 나타났다. 실리콘밸리에서 가장 가치 있는 두 인공지능 스타트업이 역사상 최대 규모의 기업공개를 향해 경쟁하고 있지만, 기밀 재무 문서에 따르면 오픈AI와 앤트로픽 모두 수익을 내는 단계와는 거리가 먼 것으로 밝혀졌다. 월스트리트저널 보도는 두 회사의 재무 상황에 대한 내부 분석을 제공하며, 공통된 취약점을 부각시켰다. AI 모델 구축 및 운영에 드는 비용이 급증하면서 빠르게 성장하는 매출을 계속 앞지르고 있다는 분석이다. 폭발하는 매출, 더 빠르게 치솟는 비용 월스트리트저널(WSJ)이 입수한 투자자용 기밀 재무자료에 따르면, 오픈AI는 2030년이 돼서야 손익분기점에 도달할 것으로 예상하고 있으며, 앤트로픽은 2028년 흑자 전환을 목표로 하고 있다. 두 회사 모두 AI 붐의 중심에 서 있지만 ‘언제 돈을 버느냐’라는 질문에 대한 답은 상당히 다르다. 두 회사 간의 격차는 AI 붐을 헤쳐나가는 극명하게 다른 전략을 반영하며, 두 회사 모두 2026년 4분기 IPO 가능성을 준비하고 있다. 오픈AI는 이미 매출 규모에서 시장을 선도하고 있다. 2