Each language version is independently generated for its own context, not a direct translation.
이 논문은 **"법률 분야 인공지능 (LLM) 이 어떻게 하면 더 똑똑하고, 착하며, 실수를 줄일 수 있을까?"**에 대한 해결책을 제시합니다.
법률 문서는 매우 길고 복잡하며, 한 글자라도 틀리면 큰 문제가 생깁니다. 하지만 현재 인공지능은 긴 문서를 읽다가 헷갈려서 **거짓말 (할루시네이션)**을 하거나, 중요한 정보가 없을 때도 억지로 답을 만들어내는 문제가 있습니다.
저자들은 이 문제를 해결하기 위해 두 가지 핵심 전략을 사용했습니다. 마치 훌륭한 도서관 사서와 신중한 변호사를 고용한 것과 같습니다.
1. 문제: AI 가 왜 법률 문서에서 망치는가?
법률 문서는 마치 수만 페이지짜리 거대한 레고 성과 같습니다.
- 문제 1 (검색 실패): 비슷한 단어가 너무 많아서, AI 가 "이건 A 문서에 있는 내용인데, B 문서에서 찾아왔다"고 착각합니다. (예: '계약서'라는 단어가 비슷한데, 서로 다른 회사의 계약서를 혼동함)
- 문제 2 (무리한 답변): 정보가 부족한데도 AI 가 "아마도 이런 뜻일 거야"라고 생각을 빙빙 돌려서 거짓말을 합니다.
2. 해결책 1: "메타데이터가 달린 레고" (Metadata-Enriched RAG)
기존의 AI 는 문서를 잘게 쪼개서 (Chunking) 검색합니다. 하지만 그냥 잘게 쪼개면 문맥이 끊깁니다.
- 비유: 도서관에서 책 한 장을 떼어내서 검색하면, 그 장이 어떤 책의 몇 페이지인지, 어떤 주제인지 알 수 없어 헷갈립니다.
- 해결책: 저자들은 잘게 쪼개진 문서 조각마다 **라벨 (메타데이터)**을 붙였습니다.
- "이 조각은 'A 회사 계약서'의 '3 장'이고, '주주총회' 관련 내용이다"라고 꼬리표를 다는 것입니다.
- 또한, 바로 앞뒤 4 개의 조각을 묶어서 **"이 부분은 전체적으로 이런 이야기야"**라고 요약문을 덧붙였습니다.
- 효과: 이제 AI 는 검색할 때 단순히 '단어'만 보는 게 아니라, **"어떤 문서의 어떤 부분"**인지 정확히 알 수 있게 되어, 엉뚱한 문서에서 정보를 가져오는 실수를 크게 줄였습니다.
3. 해결책 2: "신중한 변호사 훈련" (Direct Preference Optimization, DPO)
검색이 잘 되어도, AI 가 "정보 없는데도 억지로 답을 만들어내면" 안 됩니다.
- 문제: 기존 AI 는 "모르겠다"고 말하는 것을 두려워해서, 정보가 없어도 억지로 답을 하거나, 반대로 정보가 있는데도 너무 무서워서 "모르겠다"고만 합니다.
- 해결책: 저자들은 AI 를 **선호도 최적화 (DPO)**라는 방법으로 훈련시켰습니다.
- 상황 A (정보가 충분할 때): "정답을 찾아서 말해라!" (칭찬)
- 상황 B (정보가 부족할 때): "모르겠다고 솔직히 말해라!" (칭찬)
- 상황 C (정보가 부족할 때 억지로 답할 때): "아니야, 그건 틀렸어!" (질책)
- 효과: AI 는 이제 "정보가 있으면 정확하게 답하고, 정보가 없으면 과감하게 '모르겠다'고 말하는" 신중한 변호사처럼 변했습니다.
4. 결과: 어떻게 변했을까?
이 두 가지 방법을 합치니 놀라운 변화가 일어났습니다.
- 검색 정확도 향상: 엉뚱한 문서에서 정보를 가져오는 실수가 크게 줄었습니다. (특히 복잡한 M&A 계약서 같은 문서에서 효과가 뛰어났습니다.)
- 거짓말 감소: 정보가 없을 때 억지로 답을 만들어내지 않게 되었습니다.
- 정답률 상승: 정보가 있을 때는 훨씬 더 정확하고 디테일한 답변을 내놓았습니다.
요약
이 연구는 **"AI 에게 법률 문서를 읽게 할 때, 단순히 글자만 잘게 쪼개는 게 아니라 (메타데이터), AI 가 '모를 때는 모른다고 말하는' 용기도 가르쳐야 한다 (DPO)"**는 것을 증명했습니다.
마치 정확한 주소 (메타데이터) 가 적힌 편지를 보내고, 편지를 받은 사람이 모르는 내용은 답장하지 않고 정직하게 알리는 훈련을 시킨 것과 같습니다. 그 결과, 법률 AI 는 훨씬 더 신뢰할 수 있는 파트너가 되었습니다.