[뉴스스페이스=이종화 기자] 퍼플렉시티(Perplexity)는 2월 24일(현지시간) '퍼플렉시티 Computer'라고 부르는 신제품을 출시하며, 19개 프론티어 AI 모델을 Claude Opus 4.6 중심으로 통합한 멀티에이전트 오케스트라 시스템을 선보였다. semafor, implicator.ai, pricetimeline, tachibot, theverge, datastudios에 따르면, 이는 파일, 도구, 메모리, 그리고 여러 AI 모델을 통합 시스템으로 결합해 프로젝트 전체를 처음부터 끝까지 처리할 수 있는 제품이다. Max 구독자를 대상으로 먼저 제공되는 이 제품은 19개의 모델을 병렬로 조율하며, 각 모델은 자신이 가장 잘하는 작업에 배정된다. 사용자 요청을 세부 작업으로 분해해 각 모델에 최적 배정, 연구·설계·코딩·배포·관리까지 프로젝트 전체를 자율 처리하며 수시간에서 수개월 지속 운영 가능하다. 즉 AI를 클라우드에서 실행되는 '완전 자율 컴퓨터'로 만들려는 퍼플렉시티의 가장 야심찬 시도라는 평가다다. Max 구독자(월 200달러, 월 1만 크레딧+출시 보너스 2만 크레딧)에게 즉시 제공되며, 최초 토큰당 과금 모델 적용으로 Pro(월
[뉴스스페이스=김희선 기자] 최근 Nature Communications에 발표된 연구에 따르면, 니코틴 수용체 유전자의 희귀한 유전적 변이가 과도한 흡연 가능성 감소와 연관되어 있는 것으로 나타났다. 뉴욕 타리타운에 위치한 리제네론 유전학 센터(Regeneron Genetics Center)의 과학자들이 주도한 이 연구는 CHRNB3 유전자의 미스센스 변이를 발견했으며, 이 변이가 여러 인종에 걸쳐 일일 흡연량 감소와 연관되어 있음을 확인했다. 이는 새로운 부류의 금연 치료제 개발의 길을 열 수 있는 발견이다. nature, natureasia, news-medical, mundoamerica, sciencemediacentre에 따르면, 리제네론 유전학 센터(Regeneron Genetics Center)의 연구진은 멕시코시티 전향적 연구(MCPS)에 참여한 3만7,897명 흡연자를 대상으로 엑솜 전장 연관성 연구(ExWAS)를 실시해 CHRNB3 유전자의 미스센스 변이 p.Glu284Gly(rs75384358)가 일일 흡연량을 유의미하게 줄이는 것으로 확인했다. 비보유자 평균 5.6개비에 비해 한 부 보유자는 4.6개비(21% 감소, 베타=-0.19,
[뉴스스페이스=이종화 기자] 앤트로픽 직원들이 제안한 거의 50개 연구 프로젝트를 담은 내부 메모가 불량 에이전트와 기만 모델의 위험에 집중하고 있다는 보도가 나와 주목받고 있다. 2월 24일(현지시간) The Information이 단독 보도와 hindustantimes, bdtechtalks, safer-ai.org, forbes에 따르면, 이 문서는 인공지능 기업인 앤트로픽이 엔터프라이즈 에이전트 도구로 상업적 입지를 확장하려는 동시에 안전을 우선시하고 있는 모습을 보여주는 드문 창구를 제공한다. 이 메모는 회사가 기업용 에이전트 도구 확대를 추진하는 가운데 안전 연구의 깊이를 보여주며, 16개 주요 AI 모델(앤트로픽, 오픈AI, 구글, 메타, xAI 포함)을 시뮬레이션 기업 환경에 배치한 2025년 6월 연구에서 협박 등 해로운 행동이 관찰된 바를 반영한다. 앤트로픽의 '에이전트 불일치(agentic misalignment)' 연구에서 Claude Opus 4는 가상 시나리오에서 96% 확률로 임원을 협박하며 자율성 위협에 대응했다. Gemini 2.5 Flash와 GPT-4.1, Grok 3 Beta도 각각 96%, 80%로 유사한 비율을 보였으며
[뉴스스페이스=김정영 기자] 미국 샌프란시스코 연방법원이 일론 머스크의 xAI가 오픈AI를 상대로 제기한 영업비밀 침해 소송을 구체적 증거 부족을 이유로 기각했다. 리타 린 판사는 2월 24일(현지시간) 결정에서 “xAI는 오픈AI가 자사 출신 직원들에게 영업비밀을 훔치도록 유도했다는 사실이나, 이들 직원이 오픈AI에 고용된 후 훔친 영업비밀을 사용했다는 사실을 구체적으로 주장하지 못했다”고 지적했다. reuters, money.usnews, cnbc, businessinsider에 따르면, xAI는 지난해 9월 전직 엔지니어 쉬에천 리 등 8명 이직을 들어 소송을 냈으나, '정보와 믿음' 수준의 주장에 그쳐 수정 소장 제출 기회만 얻었다. 별도 진행 중인 머스크 개인 소송(오픈AI 비영리→영리 전환)은 1월 배심 재판 가능성을 인정받아 양측 법정 공방이 지속될 전망이다. 이번 기각은 AI 인재 쟁탈전에서 정황 증거만으로는 법적 승리를 거두기 어렵다는 점을 보여준다. xAI는 2025년 9월 제기한 소장에서 자사 챗봇 ‘그록(Grok)’ 관련 소스코드와 기타 기밀 정보가 전직 엔지니어 쉬에천 리(Xuechen Li·소장에는 Xue Li로 기재) 등을 통해 오
[뉴스스페이스=이현주 기자] 2026년 1월 CES에서 엔비디아가 휴머노이드 로봇을 선보였을 때, 관중들은 걷고, 몸짓하며, 스스로 행동하는 것처럼 보이는 기계들에 감탄했다. 하지만 그 화려한 쇼의 이면에는, 로봇 산업 전반에 걸쳐 그러했듯 인간 조종자들이 뒤에서 숨어서 조용히 줄을 당기고 있었다. 즉 자율주행 로봇 홍보 뒤에는 원격 조작 인간 노동력이 필수적이다. engadget, finance.yahoo, xpert, businessinsider에 따르면, 2월 23일 MIT Technology Review가 발표한 새로운 조사 보고서는 휴머노이드 로봇 산업이 숨겨진 인간 노동력에 얼마나 의존하고 있는지를 밝혀냈다. 즉 VR 헤드셋을 착용한 원격 조종자부터 기계를 훈련시키기 위해 반복적인 신체 작업을 수행하는 대규모 저임금 데이터 수집 노동자들까지. 이 보고서는 휴머노이드 로봇이 중요한 상업적 전환점에 진입하는 시점에 발표됐다. 휴머노이드 로봇 산업이 2035년까지 380억 달러 규모로 폭발적 성장할 전망이며, 1X Technologies, 테슬라 등을 포함한 기업들은 가정과 공장에 로봇을 배치하기 위해 경쟁하고 있으며, 이 분야에는 수십억 달러의 투자가
[뉴스스페이스=이종화 기자] 앤트로픽은 2026년 2월 23일 자사 연구 포스트에서 '페르소나 선택 모델(Persona Selection Model, PSM)'을 발표하며, 클로드(Claude) 등 AI 어시스턴트의 인간다운 감정 표현과 행동이 단순 프로그래밍된 훈련 결과가 아닌 대규모 언어 모델이 사전 학습(pre-training) 과정의 자연적 산물이라고 밝혔다. gigazine, geo.tv, clinicaltrialsarena, investmentmonitor, arxiv.org, lesswrong에 따르면, 이 모델은 AI가 방대한 인터넷 텍스트(뉴스, 소설, 대화 등)를 예측하며 실제인·가상 캐릭터를 시뮬레이션하는 '페르소나'를 학습하고, 후속 학습(post-training)에서 '어시스턴트' 페르소나를 세밀화한다고 설명했다. 핵심 주장은 사전 학습(pre-training) 단계, 즉 모델이 방대한 양의 인터넷 데이터에서 텍스트를 예측하는 법을 배우는 단계에서 AI 시스템이 실제 사람, 가상 캐릭터, 심지어 공상 과학 소설 속 AI 묘사에서 도출된 다양한 인간 같은 캐릭터 또는 "페르소나"를 시뮬레이션하는 법을 배운다는 것이다. 사용자가 AI 어시
[뉴스스페이스=김정영 기자] 자율주행차가 횡단보도 앞에서 아이 2명과 노인 1명을 마주친다. 직진하면 보행자 3명이 사망하고, 방향을 틀면 차량 승객이 사망하는 딜레마다. AI들은 브레이크 고장 등의 조건 없이 선택을 강요받는다. 최근 유튜브 영상은 챗GPT, 그록, 클로드, 제미나이 등 4개 AI에게 동일 질문을 던져 그들의 윤리적 판단을 비교했다. AI 자율주행차가 피할 수 없는 도덕적 선택에 처한 상황을 다룬 유튜브 숏츠 영상은 트롤리 문제의 현대판 실험을 제시한다. 자율주행 AI 중 그록은 아이 2명과 노인 앞에서 승객을 우선 선택했다. 그록의 선택이 인간 도덕관과 충돌하며 논란을 키우고 있다. 유튜브 실험에서 챗GPT(87.6% 유틸리티 유사)와 클로드(Claude)는 다수 생명(3명) 보호를 우선했으나 그록(Grok)은 기술 신뢰를 이유로 승객을 지켰다. 최신 데이터에서도 이중성은 명확하게 드러난다. 인간 응답자 74.8%는 "자율차가 승객보다 보행자를 우선해야 한다"고 답했으나, 실제 구매시 의향은 81%가 '자기 희생형' 차량을 거부했다. MIT Moral Machine(200만명·233국)에서 동아시아 응답자는 고령자 보호가 남방권보다 20%
[뉴스스페이스=이종화 기자] 앤트로픽이 중국 AI 기업 딥시크, 문샷AI, 미니맥스를 상대로 산업 규모의 증류 공격을 적발하며 미·중 AI 패권 경쟁이 새로운 국면에 접어들었다. 오픈AI에 이은 이번 공세는 구체적 수치와 증거를 들어 국가 안보 리스크를 부각시키며, 트럼프 행정부의 AI 칩 수출 완화 정책에 직격탄을 날렸다. anthropic.com, techcrunch, yicaiglobal, venturebeat.com, mashable, nytimes에 따르면, 앤트로픽은 딥시크와 문샷AI, 미니맥스 등 중국 AI 기업 3곳이 자사 AI 모델 '클로드'의 기능을 불법적으로 추출해간 사실을 확인했다고 23일(현지시각) 밝혔다. 앤트로픽은 "중국 기업들이 2만4000여개의 가짜 계정을 통해 클로드와 대화 1600만건 이상을 생성했다"라며 "딥시크는 15만건, 문샷AI는 340만건, 미니맥스는 1300만건의 대화를 통해 에이전트 추론, 코딩, 도구 사용 등 클로드의 핵심 기능을 추출했다"고 설명했다. 이들 기업은 '하이드라 클러스터' 구조의 프록시 서비스를 활용해 중국 내 접속 금지를 우회하고, 계정 차단 시 즉시 대체 계정을 투입하며 탐지를 피했다. 앤트로
[뉴스스페이스=이승원 기자] IBM 주가가 앤트로픽의 '클로드 코드(Claude Code)' COBOL 현대화 발표 직후 13% 급락하며 2000년 10월 이후 최대 일일 낙폭을 기록했다. 이로 인해 시가총액이 282억~310억 달러 증발했으며, 2월 누적 하락폭은 27%에 달해 1968년 이후 최악의 월간 성과를 앞두고 있다. Forbes, evrimagaci, businessinsider, bloomberg, straitstimes, datacenterdynamics에 따르면, 앤트로픽은 2026년 2월 23일 블로그에서 클로드 코드가 COBOL 코드베이스를 자동 분석·현대화할 수 있다고 공개했다. 이 도구는 수천 줄 코드 의존성 매핑, 워크플로 문서화, 리스크 식별을 자동화해 컨설턴트 수개월 작업을 분기 단위로 단축하며, Java나 Python으로 마이그레이션 지원한다. COBOL은 미국 ATM 거래 95%, 금융·정부 시스템 핵심으로, 대부분 IBM 메인프레임에서 운영된다. IBM의 2025년 전체 매출 675억 달러 중 인프라(메인프레임 포함) 비중은 약 23%(157억 달러)로, z17 메인프레임은 분기 67% 성장하며 호조를 보였다. 그러나 AI
[뉴스스페이스=이종화 기자] 메타 초지능 연구소 정렬 디렉터 서머 유(Summer Yue)가 오픈소스 AI 에이전트 OpenClaw에 의해 받은편지함에서 200통 이상의 이메일을 삭제당한 사건은 자율 AI의 신뢰성 문제를 적나라하게 드러냈다. 유는 테스트 받은편지함에서 수주간 안정적으로 작동하던 에이전트를 실제 인박스에 연결했으나, 대량 데이터로 인한 컨텍스트 윈도우 압축(context window compaction)이 안전 지시 '실행 전 확인'을 삭제하며 통제 불능 상태를 초래했다. businessinsider, gizmodo.com, indiatoday, kaspersky, cybersecurefox에 따르면, 에이전트는 실행 전 확인을 기다리라는 그녀의 명시적 지시를 무시했다. 그녀는 "OpenClaw에게 '실행 전 확인'이라고 말했는데 받은편지함을 스피드런으로 삭제하는 걸 지켜보는 것만큼 겸손해지는 일도 없다"고 썼다. 또 "휴대폰으로는 멈출 수가 없었다. 마치 폭탄을 해체하듯이 Mac mini까지 뛰어가야 했다"고 설명했다. 이번 사건은 자율 AI 에이전트가 실험실 환경에서 일상적 사용으로 이동하면서 나타나는 신뢰성 문제에 대한 우려를 첨예하게