Each language version is independently generated for its own context, not a direct translation.
이 논문은 **드론 (무인 항공기) 의 안전을 평가하고 법규를 준수하는 일을 돕는 '똑똑한 비서'**를 개발한 연구입니다.
이 비서는 일반적인 AI(챗봇) 와는 다릅니다. 일반적인 AI 는 때때로 지식을 과시하며 거짓말을 하거나 (할루시네이션), 근거 없는 주장을 할 수 있지만, 이 비서는 **"무조건 책에 있는 내용만 말하고, 그 출처를 꼭 밝힌다"**는 철학을 가지고 있습니다.
이 복잡한 내용을 일상적인 언어와 비유로 설명해 드리겠습니다.
1. 왜 이런 비서가 필요할까요? (배경)
드론이 하늘을 나는 날이 많아지면서, 안전을 책임져야 하는 관청이나 기업들은 엄청난 양의 두꺼운 규정서 (책) 를 읽어야 합니다.
- 문제점: 책이 너무 두껍고 복잡해서, "이 드론은 어떤 규정을 따라야 하지?"라고 물으면 전문가도 답을 찾기 위해 몇 시간씩 헤매야 합니다.
- 기존 AI 의 위험: 만약 우리가 일반적인 AI 에게 물어보면, AI 는 "아마도 이런 규정이 있을 거예요"라고 창의적으로 (하지만 틀리게) 대답할 수 있습니다. 하지만 안전 문제에서는 "틀린 답"이 치명적입니다.
2. 이 비서는 어떻게 작동할까요? (핵심 원리)
이 시스템은 RAG(검색 증강 생성) 기술을 사용합니다. 이를 '도서관 사서 + 철학자' 비유로 설명해 보겠습니다.
- 일반 AI (창의적인 작가): 머릿속에 있는 모든 지식을 바탕으로 즉흥적으로 이야기를 지어냅니다. 때로는 멋진 거짓말을 할 수도 있습니다.
- 이 비서 (엄격한 도서관 사서):
- 질문을 받으면: 먼저 오직 '공식 규정서'라는 도서관으로 달려갑니다.
- 검색: 질문과 관련된 책의 페이지를 찾아냅니다.
- 답변 작성: 찾아낸 책의 내용만 복사해서 답을 작성합니다.
- 출처 명시: "이 말은 34 페이지 2 단락에 나온 내용입니다"라고 꼭 페이지 번호를 적어줍니다.
- 모르면 모른다고 합니다: 책에 내용이 없으면, "책에 그런 내용이 없으니 답할 수 없습니다"라고 정직하게 말합니다.
3. 이 비서의 특별한 특징들
① "출처가 없는 말은 입에 담지 않는다" (Traceability)
이 비서는 답변을 할 때 마치 법정 증인처럼 행동합니다.
- 비유: 만약 당신이 "이 드론은 120m 까지 날아갈 수 있나요?"라고 물으면, 비서는 "네, 가능합니다"라고만 말하지 않습니다. 대신 **"네, 가능합니다. (EASA 규정서 12 페이지, 3 조에 명시되어 있습니다)"**라고 말합니다.
- 효과: 나중에 누군가 "왜 그렇게 판단했어?"라고 물어봐도, 비서는 그 책의 페이지를 바로 보여줄 수 있어 책임 소재가 명확해집니다.
② "책에 없는 건 상상하지 않는다" (Grounding)
- 비유: 만약 책에 "비행 금지 구역"에 대한 내용이 없는데, 사용자가 "비행 금지 구역은 어때요?"라고 묻는다면, 이 비서는 "모르겠습니다. 책에 그런 내용이 없습니다"라고 말합니다.
- 일반 AI: "아마도 비가 오면 금지 구역일 거예요"라고 추측할 수 있습니다. 하지만 이 비서는 추측을 절대 하지 않습니다.
③ "두 가지 모드로 작동" (Use Cases)
이 비서는 두 가지 방식으로 일할 수 있습니다.
- 대화형 모드 (Regulatory Assistant): "SORA(특수 운영 위험 평가) 가 뭐예요?"라고 대화하듯 물어보면, 책 내용을 바탕으로 친절하게 설명해 줍니다.
- 체크리스트 모드 (Safety Assessment): "드론 무게는 2kg, 날리는 높이는 50m 입니다. 이 드론은 어떤 등급인가요?"라고 구체적인 데이터를 주면, 책의 표를 찾아 "이건 '특수 운영' 등급입니다"라고 **정해진 형식 (JSON)**으로 딱딱하게 답합니다.
4. 연구 결과는 어땠나요?
연구진은 이 비서를 시험해 보았습니다.
- 성공: 책에 명확한 내용이 있을 때는 정확도 90% 이상으로 잘 찾아냈고, 출처도 정확히 알려주었습니다.
- 한계: 질문을 너무 어렵게 바꾸거나 (예: "비행 금지 구역" 대신 "사람이 많은 곳에서의 비행 제한"이라고 묻는 등), 책에 내용이 애매할 때는 가끔 답을 못 찾거나, 찾은 내용을 잘못 해석하기도 했습니다.
- 교훈: 그래서 이 비서는 **최종 결정을 내리는 '심판'이 아니라, 심판이 결정을 내릴 때 도움을 주는 '보조 도구'**로만 사용해야 한다고 결론 내렸습니다.
5. 결론: 왜 이 연구가 중요한가요?
이 논문은 **"AI 가 안전과 법규 같은 무거운 일을 할 때는, '창의성'보다 '정직함'과 '근거'가 더 중요하다"**는 것을 보여줍니다.
마치 비행기 조종사가 있습니다.
- 일반 AI: "아마도 이 구름을 뚫고 지나가면 되겠지?"라고 말하며 위험하게 날아갈 수 있습니다.
- 이 비서: "기상 관측 자료 (책) 에 따르면 이 구름은 통과할 수 없습니다. 우회해야 합니다. (자료 출처: 5 페이지)"라고 말합니다.
이 비서는 드론이 하늘을 더 안전하게, 그리고 더 많은 사람이 이용할 수 있도록 규정을 쉽게 찾아주고, 실수를 막아주는 '디지털 안전망' 역할을 합니다. 하지만 최종적인 안전 판단은 여전히 **사람 (전문가)**이 해야 한다는 점을 잊지 않습니다.