Devil is in Narrow Policy: Unleashing Exploration in Driving VLA Models

이 논문은 자율주행 VLA 모델의 탐색 능력 저하를 해결하기 위해 실행 가능한 궤적 확장 (FTE) 전략과 적응형 다양성 인식 샘플링 (ADAS) 등을 포함한 'Curious-VLA' 프레임워크를 제안하여 Navsim 벤치마크에서 최첨단 성능을 달성했다고 요약할 수 있습니다.

Canyu Chen, Yuguang Yang, Zhewen Tan, Yizhi Wang, Ruiyi Zhan, Haiyan Liu, Xuanyao Mao, Jason Bao, Xinyue Tang, Linlin Yang, Bingchuan Sun, Yan Wang, Baochang Zhang

게시일 2026-03-09
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🍳 1. 문제: "요리사"가 너무 똑똑해서 망친 경우

지금까지 자율주행 AI(특히 VLA, 즉 Vision-Language-Action 모델) 는 **'모방 학습 (Imitation Learning)'**이라는 과정을 거칩니다.

  • 상황: AI 는 인간 운전자의 기록 (정답) 을 보고 "저 사람이 어떻게 운전했지? 나도 똑같이 따라 해야지"라고 배웁니다.
  • 문제점 (Narrow Policy): AI 는 정답을 너무 완벽하게 따라 하려고 하다 보니, "정답 하나만 외우는" 상태가 됩니다.
    • 마치 요리 학교에서 학생이 "선생님이 만든 스테이크 한 가지 맛만 완벽하게 따라 하는 것"입니다.
    • 만약 갑자기 고기가 없거나, 불이 약해지거나, 손님이 "매운 걸로 바꿔줘"라고 하면, 이 학생은 당황해서 아무것도 못 합니다.
    • AI 도 마찬가지입니다. 예상치 못한 상황 (예: 갑자기 튀어나온 개, 비가 쏟아짐) 이 생기면, 배운 '정답'이 없으니 혼란에 빠져서 위험한 행동을 하거나 멈춰버립니다.

이 논문은 **"AI 가 다양한 상황을 스스로 상상하고 시도해볼 수 있게 (탐험) 해야 한다"**고 말합니다.


🚀 2. 해결책: "Curious-VLA(호기심 많은 AI)"

연구팀은 AI 가 단순히 따라 하는 것을 넘어, 스스로 호기심을 가지고 다양한 시도를 하도록 훈련시키는 새로운 방법인 **'Curious-VLA'**를 개발했습니다. 이 과정은 크게 두 단계로 나뉩니다.

1 단계: "다양한 레시피" 만들기 (모방 학습 단계)

기존에는 인간이 운전한 '정답' 하나만 가르쳤다면, Curious-VLA 는 안전한 '대안' 레시피 여러 가지를 만들어서 가르칩니다.

  • 비유: 요리 학교에서 "스테이크를 굽는 방법"을 가르칠 때, "불이 약할 때는 어떻게 할까?", "고기가 두꺼우면 어떻게 할까?" 같은 다양한 상황별 대안 레시피를 100 가지나 만들어서 학생에게 보여줍니다.
  • 기술적 이름: FTE(실현 가능한 궤적 확장). AI 가 물리적으로 안전한 여러 가지 운전 경로를 스스로 만들어내게 합니다.
  • 효과: AI 는 "정답은 하나뿐이 아니야. 상황에 따라 이렇게도, 저렇게도 운전할 수 있구나!"라고 깨닫게 됩니다.

2 단계: "다양한 시도를 칭찬하는" 보상 시스템 (강화 학습 단계)

AI 가 배운 내용을 실제로 적용할 때, 단순히 정답을 맞춘다고 점수를 주는 게 아니라, '다양하게 시도한 것'을 더 높게 평가합니다.

  • 비유: 요리 대회에서 심사위원이 "너는 항상 똑같은 스테이크만 만들지. 오늘따라 특이하게 허브를 넣은 스테이크를 만들어보았네? 이거 더 점수 높게 줄게!"라고 말합니다.
  • 기술적 이름:
    • ADAS(적응형 다양성 인식 샘플링): AI 가 매번 똑같은 결과만 내는 상황은 훈련에서 제외하고, 결과가 다양하게 나오는 상황만 골라서 집중 훈련시킵니다.
    • SDR(스팬닝 드라이빙 보상): 아주 작은 차이 (예: 차선 유지가 0.1m 더 정확함) 도 AI 가 민감하게 느끼도록 보상 점수 체계를 조정합니다.

🏆 3. 결과: 왜 이것이 대단한가?

이 방법을 적용한 Curious-VLA는 기존 AI 들보다 훨씬 뛰어난 성능을 보여줍니다.

  • 기존 AI: "정답"을 너무 잘 외워서, 정답이 없는 상황에서는 공황 상태가 됨. (탐험 능력 0)
  • Curious-VLA: 다양한 상황을 미리 경험해봤기 때문에, 예상치 못한 상황에서도 유연하게 대처함.
    • 성적: 자율주행 평가 기준 (Navsim) 에서 **최고 기록 (SoTA)**을 세웠습니다.
    • Best-of-N (최고의 선택): AI 가 여러 번 시도를 해서 그중 가장 좋은 것을 고르면, 인간 운전자의 실력과 거의 비슷하거나 더 좋은 수준에 도달했습니다.

💡 요약: 한 줄로 정리하면?

"자율주행 AI 에게 '정답 하나'만 외우게 하면 사고가 나지만, '안전한 다양한 방법'을 스스로 탐험하게 하면 인간보다 더 똑똑하고 안전한 운전자가 된다!"

이 연구는 AI 가 단순히 데이터를 복사하는 것을 넘어, 호기심과 창의성을 가지고 스스로 학습하도록 만든 획기적인 시도입니다. 마치 아이가 "왜?"라고 묻고 직접 실험하며 성장하는 것처럼요.