A Retrieval-Augmented Language Assistant for Unmanned Aircraft Safety Assessment and Regulatory Compliance

이 논문은 무인 항공기의 안전 평가 및 규제 준수를 지원하기 위해 권위 있는 규제 문서에 기반한 검색 증강 언어 어시스턴트를 설계하고 검증하여, 생성 모델의 오류를 방지하고 추적 가능한 증명을 제공함으로써 인간 전문가의 판단을 보조하는 체계를 제안합니다.

Gabriele Immordino, Andrea Vaiuso, Marcello Righi

게시일 Thu, 12 Ma
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **드론 (무인 항공기) 의 안전을 평가하고 법규를 준수하는 일을 돕는 '똑똑한 비서'**를 개발한 연구입니다.

이 비서는 일반적인 AI(챗봇) 와는 다릅니다. 일반적인 AI 는 때때로 지식을 과시하며 거짓말을 하거나 (할루시네이션), 근거 없는 주장을 할 수 있지만, 이 비서는 **"무조건 책에 있는 내용만 말하고, 그 출처를 꼭 밝힌다"**는 철학을 가지고 있습니다.

이 복잡한 내용을 일상적인 언어와 비유로 설명해 드리겠습니다.


1. 왜 이런 비서가 필요할까요? (배경)

드론이 하늘을 나는 날이 많아지면서, 안전을 책임져야 하는 관청이나 기업들은 엄청난 양의 두꺼운 규정서 (책) 를 읽어야 합니다.

  • 문제점: 책이 너무 두껍고 복잡해서, "이 드론은 어떤 규정을 따라야 하지?"라고 물으면 전문가도 답을 찾기 위해 몇 시간씩 헤매야 합니다.
  • 기존 AI 의 위험: 만약 우리가 일반적인 AI 에게 물어보면, AI 는 "아마도 이런 규정이 있을 거예요"라고 창의적으로 (하지만 틀리게) 대답할 수 있습니다. 하지만 안전 문제에서는 "틀린 답"이 치명적입니다.

2. 이 비서는 어떻게 작동할까요? (핵심 원리)

이 시스템은 RAG(검색 증강 생성) 기술을 사용합니다. 이를 '도서관 사서 + 철학자' 비유로 설명해 보겠습니다.

  • 일반 AI (창의적인 작가): 머릿속에 있는 모든 지식을 바탕으로 즉흥적으로 이야기를 지어냅니다. 때로는 멋진 거짓말을 할 수도 있습니다.
  • 이 비서 (엄격한 도서관 사서):
    1. 질문을 받으면: 먼저 오직 '공식 규정서'라는 도서관으로 달려갑니다.
    2. 검색: 질문과 관련된 책의 페이지를 찾아냅니다.
    3. 답변 작성: 찾아낸 책의 내용만 복사해서 답을 작성합니다.
    4. 출처 명시: "이 말은 34 페이지 2 단락에 나온 내용입니다"라고 꼭 페이지 번호를 적어줍니다.
    5. 모르면 모른다고 합니다: 책에 내용이 없으면, "책에 그런 내용이 없으니 답할 수 없습니다"라고 정직하게 말합니다.

3. 이 비서의 특별한 특징들

① "출처가 없는 말은 입에 담지 않는다" (Traceability)

이 비서는 답변을 할 때 마치 법정 증인처럼 행동합니다.

  • 비유: 만약 당신이 "이 드론은 120m 까지 날아갈 수 있나요?"라고 물으면, 비서는 "네, 가능합니다"라고만 말하지 않습니다. 대신 **"네, 가능합니다. (EASA 규정서 12 페이지, 3 조에 명시되어 있습니다)"**라고 말합니다.
  • 효과: 나중에 누군가 "왜 그렇게 판단했어?"라고 물어봐도, 비서는 그 책의 페이지를 바로 보여줄 수 있어 책임 소재가 명확해집니다.

② "책에 없는 건 상상하지 않는다" (Grounding)

  • 비유: 만약 책에 "비행 금지 구역"에 대한 내용이 없는데, 사용자가 "비행 금지 구역은 어때요?"라고 묻는다면, 이 비서는 "모르겠습니다. 책에 그런 내용이 없습니다"라고 말합니다.
  • 일반 AI: "아마도 비가 오면 금지 구역일 거예요"라고 추측할 수 있습니다. 하지만 이 비서는 추측을 절대 하지 않습니다.

③ "두 가지 모드로 작동" (Use Cases)

이 비서는 두 가지 방식으로 일할 수 있습니다.

  1. 대화형 모드 (Regulatory Assistant): "SORA(특수 운영 위험 평가) 가 뭐예요?"라고 대화하듯 물어보면, 책 내용을 바탕으로 친절하게 설명해 줍니다.
  2. 체크리스트 모드 (Safety Assessment): "드론 무게는 2kg, 날리는 높이는 50m 입니다. 이 드론은 어떤 등급인가요?"라고 구체적인 데이터를 주면, 책의 표를 찾아 "이건 '특수 운영' 등급입니다"라고 **정해진 형식 (JSON)**으로 딱딱하게 답합니다.

4. 연구 결과는 어땠나요?

연구진은 이 비서를 시험해 보았습니다.

  • 성공: 책에 명확한 내용이 있을 때는 정확도 90% 이상으로 잘 찾아냈고, 출처도 정확히 알려주었습니다.
  • 한계: 질문을 너무 어렵게 바꾸거나 (예: "비행 금지 구역" 대신 "사람이 많은 곳에서의 비행 제한"이라고 묻는 등), 책에 내용이 애매할 때는 가끔 답을 못 찾거나, 찾은 내용을 잘못 해석하기도 했습니다.
  • 교훈: 그래서 이 비서는 **최종 결정을 내리는 '심판'이 아니라, 심판이 결정을 내릴 때 도움을 주는 '보조 도구'**로만 사용해야 한다고 결론 내렸습니다.

5. 결론: 왜 이 연구가 중요한가요?

이 논문은 **"AI 가 안전과 법규 같은 무거운 일을 할 때는, '창의성'보다 '정직함'과 '근거'가 더 중요하다"**는 것을 보여줍니다.

마치 비행기 조종사가 있습니다.

  • 일반 AI: "아마도 이 구름을 뚫고 지나가면 되겠지?"라고 말하며 위험하게 날아갈 수 있습니다.
  • 이 비서: "기상 관측 자료 (책) 에 따르면 이 구름은 통과할 수 없습니다. 우회해야 합니다. (자료 출처: 5 페이지)"라고 말합니다.

이 비서는 드론이 하늘을 더 안전하게, 그리고 더 많은 사람이 이용할 수 있도록 규정을 쉽게 찾아주고, 실수를 막아주는 '디지털 안전망' 역할을 합니다. 하지만 최종적인 안전 판단은 여전히 **사람 (전문가)**이 해야 한다는 점을 잊지 않습니다.