Towards Explainable Deep Learning for Ship Trajectory Prediction in Inland Waterways

이 논문은 내수면 항로에서 LSTM 기반의 선박 궤적 예측 모델에 학습된 선박 영역 파라미터를 도입하여 예측 정확도를 유지하면서도 모델의 해석 가능성을 높이고, 주의 메커니즘이 기대와 다른 방식으로 작동함을 발견함으로써 설명 가능한 딥러닝의 중요성을 강조합니다.

Tom Legel, Dirk Söffker, Roland Schätzle, Kathrin Donandt

게시일 2026-03-06
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🚢 1. 문제 상황: "혼잡한 강 위의 예측 불가"

강은 바닷길보다 훨씬 좁고 복잡합니다. 배들이 서로 마주치거나, 뒤따라가거나, 좁은 수로에서 피해야 하는 상황이 빈번합니다.
이 논문은 **인공지능 (AI)**이 이런 복잡한 강 위에서 "앞으로 5 분 뒤 배가 어디에 있을지"를 정확히 예측하는 기술을 연구했습니다.

  • 기존의 문제: 최신 AI 는 예측 정확도는 높지만, "왜 그렇게 예측했는지" 이유를 알려주지 않습니다. 마치 "정답은 맞췄는데, 풀이 과정은 알려주지 않는 학생"처럼, AI 가 엉뚱한 이유 (예: 배 A 가 배 B 와 충돌할 것 같아서가 아니라, 단순히 배 A 가 빨랐기 때문에) 로 예측을 했을 수도 있는데, 우리는 그걸 모릅니다.

🧠 2. 해결책: "배들의 눈과 귀를 분리한 AI"

연구진은 LSTM이라는 AI 모델을 사용했는데, 여기에 **'배의 영역 (Ship Domain)'**이라는 개념을 도입했습니다.

  • 비유: "배의 눈 (시야)"
    • 배가 다른 배를 볼 때, "저 배는 내 눈에 들어오지 않아서 무시해도 돼" 혹은 "저 배는 너무 가까워서 피해야 해"라고 판단하는 가상의 영역입니다.
    • 이 AI 는 학습을 통해 이 '시야의 범위'를 스스로 배웁니다.

🔍 3. 핵심 발견: "정답은 맞췄지만, 이유는 엉뚱했다?"

연구진이 이 AI 를 분석해보니 놀라운 사실이 드러났습니다.

  1. 예측은 잘 맞췄다: 5 분 뒤 배의 위치를 예측하는 오차 범위가 약 40 미터로, 다른 연구들과 비슷하게 잘 나왔습니다.
  2. 하지만 이유는 이상했다: AI 가 "배 A 와 배 B 가 서로 마주치니까 피해야겠다"라고 판단해서 예측을 잘한 것이 아니었습니다.
    • AI 는 실제로 마주치는 배들을 '시야'에서 제외하거나, 오히려 가장 멀리 있는 배를 더 중요하게 여겨서 예측을 했습니다.
    • 비유: "혼잡한 도로에서 차가 끼어들지 않게 하려고 옆 차를 보고 피하는 게 아니라, 가장 멀리 있는 나무를 보고 방향을 잡는 것과 비슷합니다." 결과적으로는 차가 길을 잘 찾았지만, 그 이유는 논리적으로 맞지 않는 것입니다.

🛠️ 4. 개선된 모델: "의사결정 과정을 분리하다"

이 문제를 해결하기 위해 연구진은 AI 의 구조를 바꿨습니다.

  • 기존 모델 (EA-DA, E-DA): AI 가 "누구를 볼지 (시야)"와 "그 정보를 어떻게 합칠지 (주의)"를 한 번에 처리했습니다. 그래서 AI 가 엉뚱한 이유를 찾아도 우리가 알 수 없었습니다.
  • 새로운 모델 (E-DDA):
    • 1 단계 (맹목적인 예측): 다른 배를 무시하고 내 배만 보고 앞으로 갈 길을 예측합니다.
    • 2 단계 (주목하는 예측): 다른 배들을 보고 그 영향을 계산합니다.
    • 결과: 이렇게 분리하자 AI 가 **"진짜 마주치는 배를 더 잘 인식하고, 그 배를 피하는 논리"**를 배우기 시작했습니다.

💡 5. 결론: "정답보다 '이유'가 중요하다"

이 연구의 가장 중요한 메시지는 다음과 같습니다.

"AI 가 정답을 맞췄다고 해서, 그 AI 가 안전하다고 믿을 수는 없습니다. AI 가 왜 그렇게 판단했는지 (설명 가능성) 를 확인해야 진짜 안전을 보장할 수 있습니다."

  • 미래의 계획: 이제 이 기술을 이용해 "만약 저 배가 조금만 더 빨리 갔다면 어떻게 됐을까?"라는 **가상의 시나리오 (Counterfactual Analysis)**를 분석하여, 실제 사고를 예방하는 데 활용하려고 합니다.

📝 한 줄 요약

"배의 위치를 예측하는 AI 가 정답을 맞췄지만, 그 이유가 엉뚱할 수 있음을 발견했고, AI 가 '왜' 그렇게 생각했는지 우리가 이해할 수 있도록 구조를 고쳐서 더 안전하고 신뢰할 수 있게 만들었습니다."

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →