
[뉴스스페이스=윤슬 기자] 미국 도로교통안전국(NHTSA)이 테슬라의 ‘완전자율주행(Full Self-Driving, FSD)’ 소프트웨어에 대한 대규모 예비조사를 개시했다. 조사 대상은 약 288만대에 달하며, 미국 내 등록된 대부분의 테슬라 차량이 포함된다.
로이터, CNBC, NHTSA, 코리아타임스, CBS News, Electrek, 테슬라 공식 보고서에 따르면, 이번 조사는 FSD 시스템이 교통 신호 무시, 역주행, 철도 건널목 통과 실패 등 58건의 안전성 관련 신고가 접수된 데 따른 조치로, 이 중 14건은 실제 충돌 사고로 이어졌고, 23명이 부상을 입었다.
특히 NHTSA는 6건의 사례에서 FSD 작동 중인 테슬라 차량이 빨간 신호등을 무시하고 교차로로 진입한 후 다른 차량과 충돌했다고 밝혔다. 이 중 4건은 인명 피해를 동반했으며, 일부 사례에서는 운전자가 시스템 오작동에 개입할 충분한 경고를 받지 못한 것으로 보고됐다. 또한 차선 변경 중 반대 차선으로 진입하거나, 철도 건널목에서 경고등이나 차단봉 작동에도 불구하고 정지하지 못한 사례도 다수 포함됐다.
NHTSA는 이번 조사를 통해 FSD 시스템이 운전자에게 충분한 개입 기회를 제공하는지, 교통 신호를 정확히 인식하는지, 그리고 시스템 오작동 시 운전자가 즉각 대응할 수 있는지 등을 집중적으로 평가할 예정이다. 조사 결과에 따라 소프트웨어 업데이트나 대규모 리콜 조치로 이어질 가능성도 배제되지 않는다. 이는 2024년 저시야 조건에서의 사고를 이유로 200만 대 이상에 대한 조사에 이은 후속 조치로, 테슬라의 자율주행 기술에 대한 감독이 강화되고 있음을 보여준다.
테슬라는 FSD를 ‘레벨 2(Level 2)’ 운전자 보조 시스템으로 분류하고 있으며, 이는 운전자가 항상 차량을 감시하고 통제할 책임이 있음을 의미한다. NHTSA 공식 웹사이트에서도 레벨 2 시스템은 “가속, 제동, 조향을 동시에 지원하지만, 운전자가 지속적으로 주의를 기울여야 하며, 언제든지 제어를 인계받을 준비가 되어 있어야 한다”고 명시하고 있다.
그러나 일론 머스크 테슬라 CEO는 FSD가 “스스로 운전할 수 있다”고 주장하며 로보택시 사업의 핵심 기술로 내세우고 있다. 머스크는 올해 말까지 로보택시에서 안전 운전자를 완전히 제거할 계획이라고 밝히기도 했다.
테슬라는 자체적으로 분기별 안전 보고서를 발표하며 FSD의 안전성을 강조하고 있다. 2025년 2분기 보고서에 따르면, FSD 작동 중에는 669만 마일당 1건의 사고가 발생했으며, FSD 미사용 시에는 96.3만 마일당 1건, 미국 전국 평균은 70.2만 마일당 1건의 사고가 발생했다. 이는 FSD가 사고 예방에 기여한다는 테슬라의 주장이다.
그러나 외부 전문가들은 테슬라의 주장에 회의적이다. 모닝스타 애널리스트 셋 골드스타인은 “최종 질문은 ‘이 소프트웨어가 실제로 작동하는가’”라며, NHTSA 조사 결과가 테슬라의 기술 신뢰성과 향후 판매 전략에 중대한 영향을 미칠 것이라고 지적했다.
유럽교통안전협의회(ETSC)는 FSD와 같은 레벨 2 시스템이 운전자를 오도할 수 있다며, 자율주행 기술에 대한 독립적이고 투명한 평가 체계의 필요성을 강조했다.
테슬라의 자율주행 기술은 이미 여러 차례 논란을 겪어왔다. 올해 초에는 원격 주차 기능과 관련해 260만 대에 대한 조사가 시작됐으며, 6월에는 텍사스 오스틴에서 시작된 로보택시 서비스도 안전성 검토 대상이 됐다. 테슬라의 로보택시 시범 운행 중에는 테스트 운행자들이 짧은 거리 내에서도 세 차례의 인간 개입이 필요했다고 보고하기도 했다.
이번 NHTSA의 조사는 자율주행 기술의 안전성과 규제의 경계를 다시금 부각시키고 있다. 기술 발전과 상용화 속도 사이의 갭이 커지는 가운데, 소비자 신뢰와 법적 책임의 균형을 맞추는 것이 테슬라와 규제당국 모두에게 중요한 과제로 떠오르고 있다.