Risk-Aware Rulebooks for Multi-Objective Trajectory Evaluation under Uncertainty

이 논문은 불확실한 환경 상호작용 하에서 계층적 우선순위와 비가환성을 고려한 위험 인식 규칙서를 제안하여, 시스템 궤적이 환경에 미치는 영향을 명시적으로 모델링하고 일관된 궤적 평가 순위를 보장하며 자율 주행 사례를 통해 설명 가능성을 증진하는 새로운 형식주의를 제시합니다.

Tichakorn Wongpiromsarn

게시일 2026-03-06
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🚗 핵심 비유: "불확실한 날씨 속의 운전사"

상상해 보세요. 당신은 자율주행차의 AI 입니다. 앞에는 보행자가 있고, 당신은 길을 가야 합니다. 하지만 문제는 보행자가 갑자기 뛰어들지 않을지, 아니면 그냥 걷기만 할지 알 수 없다는 점입니다.

기존의 방법들은 "보행자가 뛰어들 확률이 1% 라면, 그냥 무시하고 가자" 혹은 "1% 라도 위험하니까 무조건 멈추자"처럼 이분법적으로 접근하거나, 모든 규칙을 하나로 합쳐서 복잡하게 계산했습니다.

이 논문은 **"규칙장 (Rulebook)"**이라는 새로운 지도를 제안합니다. 이 지도는 단순히 '규칙'을 나열하는 게 아니라, 각 규칙의 중요도위험의 정도를 정교하게 다룹니다.

📜 1. 규칙장 (Rulebook): "우선순위 카드"

이 시스템은 여러 가지 규칙을 가지고 있습니다. 예를 들어:

  1. 사람을 치지 마라 (가장 중요 ⭐⭐⭐)
  2. 차선에서 벗어나지 마라 (중요 ⭐⭐)
  3. 승객이 편안하게 타게 하라 (보통 ⭐)
  4. 빨리 가라 (보통 ⭐)

기존 방식은 이 모든 규칙을 섞어서 점수를 매겼다면, 이 논문은 **"규칙들 사이의 우선순위"**를 명확히 합니다.

  • "사람을 치는 것"은 "차선을 살짝 벗어나는 것"보다 훨씬 나쁜 일입니다.
  • 하지만 "승객이 불편한 것"과 "차선을 살짝 벗어나는 것"은 비교할 수 없는 (Incomparable) 다른 차원의 문제일 수 있습니다.

이러한 복잡한 관계를 우선순위 카드처럼 정리해서, 어떤 규칙을 위반하더라도 더 중요한 규칙을 지키는 방향으로 결정을 내립니다.

🎲 2. 위험 인식 (Risk-Aware): "날씨 예보와 우산"

여기서 핵심은 **'불확실성'**입니다. 보행자가 뛰어들지 않을지 알 수 없죠.

  • 기존 방식: "보행자가 뛰어들지 않을 거야 (100% 확신)"라고 가정하고 계획합니다. (실제론 위험할 수 있음)
  • 이 논문의 방식: "보행자가 뛰어들 확률이 0.1% 일 수도 있고, 1% 일 수도 있어. 그 모든 가능성을 고려해서 계획을 세운다."

이를 위해 위험 측정 도구를 사용합니다.

  • 평균 (Expectation): "보통은 괜찮겠지?" (평균적인 상황)
  • 최악의 경우 (Worst-case): "만약 보행자가 갑자기 뛰어들면? 그 최악의 상황을 대비해."
  • 꼬리 위험 (Tail-risk): "거의 일어나지 않지만, 한 번 일어나면 끔찍한 재앙이 되는 상황 (예: 100 년에 한 번 있는 큰 사고) 을 얼마나 잘 감당할까?"

이론은 이 모든 위험 측정 방식을 하나의 시스템에 통합합니다. 운전자가 "우산은 챙겨야 하지만, 비가 올 확률이 1% 라면 우산을 들고 다니는 게 불편하니까..."라고 고민할 때, 어떤 위험을 감수하고 어떤 불편함을 견딜지를 수학적으로 계산해 줍니다.

⚖️ 3. 합리적인 타협 (Rational Tradeoff): "왜 이 길을 선택했을까?"

가장 중요한 점은 결정의 이유를 설명할 수 있다는 것입니다.

예를 들어, 자율주행차가 갑자기 급정거를 했다고 가정해 봅시다.

  • 질문: "왜 급정거를 했어? 승객이 멀미할 텐데."
  • 이 논문의 답변: "승객이 멀미할 위험 (규칙 4) 은 감수했지만, 보행자가 튀어나올 최악의 경우를 대비하지 않으면 **사람을 칠 위험 (규칙 1)**이 생기기 때문입니다. 사람을 치는 것보다 멀미하는 게 훨씬 낫습니다."

이처럼, 어떤 규칙을 희생해서 어떤 규칙을 지켰는지가 명확하게 드러납니다. 이를 통해 "왜 이 길로 갔는지"를 인간이 이해할 수 있게 설명 (Explainability) 할 수 있습니다.

🧩 4. 실제 예시 (자율주행차와 보행자)

논문에서는 실제 시나리오를 들어 설명합니다.

  • 상황: 보행자가 길가에 있습니다.
  • 선택지:
    1. 속도 유지: 보행자가 뛰어들면 사고 (위험 높음).
    2. 서서히 감속: 보행자가 뛰어들면 사고 위험은 줄지만, 차선 이탈이나 승객 불편함 발생.
    3. 급정거: 사고는 100% 피하지만, 승객이 크게 놀람 (불편함 극대화).
    4. 차선 변경: 보행자가 뛰어들어도 피할 수 있지만, 차선 이탈 (규칙 위반).

이 시스템은 **사용자가 설정한 '위험 허용 수준'**에 따라 답이 달라집니다.

  • "사고 확률 0.1% 라도 싫어!"라고 설정하면 -> 급정거를 선택합니다.
  • "사고 확률 1% 까지는 괜찮아. 승객 편안함이 중요해."라고 설정하면 -> 서서히 감속하거나 속도 유지를 선택합니다.

💡 결론: 왜 이 논문이 중요한가?

이 논문은 "완벽한 안전"과 "완벽한 효율" 사이에서 고민하는 자율주행차에게, "어떤 위험을 감수하고 무엇을 선택할지"에 대한 논리적인 지도를 줍니다.

  1. 불확실성을 인정합니다: 세상은 예측할 수 없으니, 모든 가능성을 고려합니다.
  2. 우선순위를 명확히 합니다: "사람의 생명 > 편안함 > 속도"처럼 규칙의 중요도를 정합니다.
  3. 설명이 가능합니다: "왜 이 결정을 내렸는지"를 규칙과 위험 분석을 통해 투명하게 보여줍니다.

마치 현명한 운전사가 비가 올지 모를 날에, "비가 오면 차가 미끄러질 수 있으니 (위험), 조금만 더 천천히 가자 (타협)"라고 생각하며 운전하는 것과 같은 원리입니다. 이 논문은 그 '생각의 과정'을 수학적으로 증명하고, AI 가 그 과정을 따라 하도록 돕는 것입니다.