TPK: Trustworthy Trajectory Prediction Integrating Prior Knowledge For Interpretability and Kinematic Feasibility

이 논문은 자율주행의 신뢰성을 높이기 위해 차량, 보행자, 자전거 등 모든 교통 참여자의 상호작용 및 운동학적 사전 지식을 통합하고, DG-SFM 규칙 기반 점수를 통해 상호작용의 해석 가능성을 높이며 물리적으로 실행 가능한 궤적 예측을 가능하게 하는 TPK 모델을 제안합니다.

Marius Baden, Ahmed Abouelazm, Christian Hubschneider, Yin Wu, Daniel Slieter, J. Marius Zöllner

게시일 2026-03-05
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **'자율주행차가 주변 상황을 얼마나 똑똑하고 안전하게 예측할 수 있을까?'**라는 질문에 답하는 연구입니다.

기존의 인공지능(AI)은 엄청난 데이터를 보고 학습해서 길에서 차나 사람이 어떻게 움직일지 예측하는 데는 매우 능숙했습니다. 하지만 문제는 **"예측이 물리적으로 불가능하거나, 인간의 상식과 맞지 않을 때"**입니다. 마치 "사람이 벽을 뚫고 지나가거나, 차가 갑자기 90 도 회전해서 날아다니는" 같은 엉뚱한 예상을 할 수도 있다는 뜻이죠.

이 논문은 **"정확함"보다 "믿을 수 있음 (Trustworthiness)"**에 초점을 맞춰, AI 의 예측을 더 안전하고 이해하기 쉽게 만드는 방법을 제안합니다.

핵심 내용을 요리책에 비유해서 설명해 드릴게요.


🍳 요리책 비유: "맛있는 요리 vs 안전한 요리"

기존의 AI 모델은 요리 실력이 뛰어난 요리사입니다. 수많은 레시피 (데이터) 를 보고 맛을 내는 법을 배웠죠. 하지만 이 요리사는 가끔 "소금 10 킬로그램을 넣는" 식으로 물리적으로 불가능한 요리를 하거나, **"사람이 싫어하는 이상한 조합"**을 만들어내기도 합니다.

이 논문은 이 요리사에게 **두 가지 새로운 규칙 (지식)**을 추가해서, 비록 맛은 약간 덜할지라도 절대 독이 없는 안전한 요리를 만들게 하자는 것입니다.

1. 첫 번째 규칙: "주변 상황을 제대로 보는 눈" (상호작용 예측)

  • 문제점: 기존 AI 는 길에서 차가 오는데, 뒤에서 아주 멀리서 오는 차를 너무 중요하게 여기고, 바로 앞의 위험한 차는 무시하는 경우가 있었습니다. 마치 사람이 뒤에서 다가오는 사기꾼은 못 보고, 멀리서 웃고 있는 사람만 보고 웃는 것과 같습니다.
  • 해결책 (DG-SFM): 연구진은 AI 에게 **"사람의 직관 (상식)"**을 가르쳤습니다.
    • "앞에서 빠르게 다가오는 차는 위험하니까 주목해야 해!"
    • "뒤에 주차된 차는 그냥 지나가면 되니까 무시해도 돼."
    • 이걸 DG-SFM이라는 새로운 규칙으로 만들었습니다.
  • 효과: AI 가 왜 그렇게 예측했는지 인간이 이해할 수 있게 되었습니다. "아, 이 차가 위험해서 피하는구나"라고 설명이 가능해지니, 운전자가 AI 를 더 신뢰하게 됩니다.

2. 두 번째 규칙: "물리 법칙을 지키는 몸" (운동 가능성)

  • 문제점: AI 가 예측한 길은 차가 갑자기 90 도 회전하거나, 사람이 1 초에 100m 를 뛰는 것처럼 물리적으로 불가능한 경우가 많았습니다. 마치 요리사가 "불에 타지 않는 빵"을 만드는 것처럼 불가능한 일을 시도하는 셈이죠.
  • 해결책 (운동학적 모델): AI 가 차나 사람의 움직임을 예측할 때, 물리 법칙 (가속도, 회전 반경 등) 을 어기지 못하게 막아주는 장치를 달았습니다.
    • 차와 자전거: 이미 잘 알려진 '자전거 모델'을 사용했습니다.
    • 보행자 (사람): 사람 걷는 방식은 복잡해서 기존 모델이 잘 맞지 않았습니다. 그래서 연구진은 **새로운 '더블 적분기 모델'**을 개발했습니다. 이는 사람이 가속하고 속도를 조절하는 자연스러운 움직임을 가장 잘 따라잡는 방법입니다.
  • 효과: AI 가 예측한 길은 차가 날아다니지 않고, 사람이 벽을 뚫지 않습니다. 실제 도로에서 실행 가능한 안전한 길만 예측하게 됩니다.

📊 실험 결과: "완벽함 vs 안전함"

연구진은 이 새로운 방법을 'Argoverse 2'라는 거대한 교통 데이터로 테스트했습니다.

  1. 믿을 수 있는 예측: AI 가 "위험하다"고 생각한 상황과 실제 위험한 상황이 일치하는 비율이 높아졌습니다. 즉, AI 가 "왜 그렇게 생각했는지"를 설명할 수 있게 되어 신뢰도가 올라갔습니다.
  2. 불가능한 길 제거: 기존 AI 는 예측한 길 중 88% 가 물리적으로 불가능한 경우가 있었지만, 이 새로운 모델은 **0%**로 만들었습니다.
  3. 약간의 트레이드오프: 물리 법칙을 지키다 보니, 아주 미세하게는 "정확도 (숫자 점수)"가 조금 떨어지기도 했습니다. 하지만 "불가능하고 위험한 예측"을 아예 없애버린 것이 훨씬 더 중요합니다.

💡 결론

이 논문은 자율주행차의 미래를 위해 **"완벽한 점수"보다 "안전하고 설명 가능한 예측"**이 더 중요하다고 말합니다.

  • 기존 AI: "나는 100 점짜리 예측을 했지만, 차가 벽을 뚫고 지나갈 수도 있어."
  • 이 논문의 AI: "나는 98 점짜리 예측을 했지만, 물리 법칙을 지키고 인간의 상식과도 일치해서 절대 위험하지 않아."

결국, 우리는 자율주행차가 매우 똑똑할 뿐만 아니라, 우리가 이해할 수 있고 믿을 수 있는 친구가 되어야 한다는 메시지를 전달합니다.