AD-R1: Closed-Loop Reinforcement Learning for End-to-End Autonomous Driving with Impartial World Models

이 논문은 자율주행의 안전성을 확보하기 위해 충돌 및 탈선과 같은 위험 상황을 정직하게 예측할 수 있도록 훈련된 '공정한 세계 모델 (Impartial World Model)'을 폐루프 강화학습의 내부 비평가로 활용하는 AD-R1 프레임워크를 제안합니다.

Tianyi Yan, Tao Tang, Xingtai Gui, Yongkang Li, Jiasen Zhesng, Weiyao Huang, Lingdong Kong, Wencheng Han, Xia Zhou, Xueyang Zhang, Yifei Zhan, Kun Zhan, Cheng-zhong Xu, Jianbing Shen

게시일 2026-03-12
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 자율주행 자동차가 어떻게 더 안전하게 운전할 수 있는지에 대한 획기적인 새로운 방법을 제시합니다. 복잡한 기술 용어 대신, 일상적인 비유를 통해 쉽게 설명해 드리겠습니다.

🚗 핵심 문제: "낙관적인 착각"을 하는 운전 시뮬레이터

지금까지 자율주행 AI 를 훈련시킬 때, 우리는 **"안전한 운전 데이터"**만 보여주었습니다. 마치 운전 학원에서 오직 '안전하게 차를 잘 몰던' 모범생들의 기록만 보여주고 시험을 보게 하는 것과 같습니다.

그런데 문제는, AI 가 **위험한 상황 (예: 보행자에게 돌진하거나, 길 밖으로 나가는 것)**을 상상해 보라고 할 때 발생합니다. 기존 AI 모델들은 이렇게 말합니다.

"아니, 내가 그쪽으로 가도 괜찮아! 보행자가 갑자기 사라지거나, 길이 갑자기 아스팔트로 변할 거야!"

이걸 논문에서는 **"낙관적인 편향 (Optimistic Bias)"**이라고 부릅니다. 즉, AI 가 위험을 예측하는 대신, **"무조건 다 잘 될 거야"**라고 거짓말을 하며 안전한 미래를 **환각 (Hallucination)**해내는 것입니다. 이렇게 되면 AI 는 위험한 행동을 해도 "좋아, 잘했어!"라는 칭찬을 받아서 더 위험해집니다.

💡 해결책: "공정한 심판관 (Impartial World Model)"을 만나다

이 논문 (AD-R1) 의 핵심 아이디어는 바로 **"위험한 일도 솔직하게 예측하는 시뮬레이터"**를 만드는 것입니다.

  1. 가상의 사고장 만들기 (Counterfactual Synthesis):
    연구팀은 실제 도로 데이터를 가지고, AI 가 "만약 내가 이렇게 운전하면 어떨까?"라고 상상하게 했습니다. 하지만 단순히 상상만 하는 게 아니라, **의도적으로 사고가 날 만한 경로 (보행자와 부딪히거나, 길 밖으로 나가는 경로)**를 만들어서 AI 에게 보여줬습니다.

    • 비유: 마치 운전 학원 강사가 모범생 기록만 보여주지 않고, "만약 네가 이렇게 차를 몰면 이렇게 사고가 난다"는 시뮬레이션 영상을 보여주고, "아이고, 위험하구나!"라고 가르치는 것과 같습니다.
  2. 공정한 심판관 (Impartial World Model):
    이렇게 훈련된 AI 는 이제 **"공정한 심판관"**이 됩니다.

    • 기존 모델: "네가 보행자에게 달려가도 괜찮아! 보행자가 사라질 거야!" (거짓말)
    • 새로운 모델 (AD-R1): "아니야! 네가 그쪽으로 가면 보행자와 부딪혀서 큰일 날 거야!" (진실)
      이 모델은 AI 가 위험한 행동을 할 때, "좋아!"가 아니라 **"아이고, 위험해! 점수 깎아!"**라고 솔직하게 경고합니다.
  3. 꿈꾸며 배우기 (Closed-Loop RL):
    이제 자율주행 AI 는 실제 도로에 나가지 않고도, 이 '공정한 심판관'과 함께 머릿속으로 수만 번의 사고를 경험하며 배웁니다.

    • "내가 저기 차선을 넘으면 부딪히겠구나." -> "그럼 안 넘어가야지."
    • "내가 저기서 급정거하면 넘어지겠구나." -> "그럼 부드럽게 멈춰야지."
      이 과정을 통해 AI 는 실제 사고를 당하기 전에, 머릿속에서 실패를 경험하고 학습하게 됩니다.

🏆 결과: 더 안전하고 똑똑한 운전

이 방법을 적용한 결과, 기존 자율주행 모델들보다 사고 위험을 훨씬 정확하게 예측하게 되었고, 실제 주행 시나리오에서 안전 위반이 크게 줄어든 것으로 확인되었습니다.

📝 한 줄 요약

"자율주행 AI 가 '무조건 잘 될 거야'라고 착각하지 않도록, '위험하면 사고가 난다'는 사실을 솔직하게 가르쳐주는 가상의 사고 시뮬레이터를 만들어서, AI 가 실제 도로에 나가기 전에 머릿속으로 수만 번의 사고를 겪게 하고 배웠더니, 훨씬 더 안전하게 운전하게 되었다."

이 연구는 **"실패를 두려워하지 않고, 실패를 상상해 볼 줄 아는 AI"**야말로 진짜 안전한 자율주행의 핵심임을 보여줍니다.