SoK: Agentic Retrieval-Augmented Generation (RAG): Taxonomy, Architectures, Evaluation, and Research Directions

이 논문은 자율적 의사결정 시스템으로서의 에이전트 기반 검색 증강 생성 (Agentic RAG) 을 체계화하기 위해 수학적 형식화, 통합 분류 체계, 평가 방법론의 한계 및 시스템적 위험 분석을 제시하고, 향후 신뢰성 있는 시스템 구축을 위한 연구 방향을 제시합니다.

Saroj Mishra, Suman Niroula, Umesh Yadav, Dilip Thakur, Srijan Gyawali, Shiva Gaire

게시일 Tue, 10 Ma
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

1. 과거 vs 현재: "수동적인 도서관 사서" vs "능동적인 탐정"

기존 시스템 (Static RAG): "질문만 던지는 도서관 사서"
과거의 검색 시스템은 도서관 사서와 비슷했습니다.

  • 상황: 사용자가 "오늘 날씨 어때?"라고 물으면, 사서는 미리 정해진 규칙대로 책장 (데이터베이스) 을 뒤져 가장 관련 있어 보이는 책 한 권을 가져와서 사용자에게 건네줍니다.
  • 문제: 만약 사서가 잘못된 책을 가져오거나, 책에 정보가 부족하다면? 사서는 **"모르겠어요"**라고만 하거나, 잘못된 정보를 그대로 전달합니다. 사서는 질문을 다시 해석하거나, 다른 책을 찾아보려고 스스로 생각하지 못합니다.

새로운 시스템 (Agentic RAG): "스스로 계획하는 디지털 탐정"
이 논문이 다루는 '에이전트 (Agent)'는 단순한 사서가 아니라, 스스로 문제를 해결하려는 탐정입니다.

  • 상황: 사용자가 "내일 여행 갈 옷 뭐 입어야 할지 알려줘"라고 물으면, 탐정은 다음과 같이 행동합니다.
    1. 계획: "일단 날씨를 먼저 확인해야겠다. 그다음에 여행지의 활동 (등산인지 해변인지) 을 알아봐야겠다."
    2. 행동: 날씨 사이트를 검색하고, 여행지 블로그를 찾아봅니다.
    3. 반성: "어? 날씨 정보는 찾았는데, 등산용 옷이 필요한지 해변용인지 명확하지 않네? 아, 여행지 활동 정보를 더 찾아봐야겠다."
    4. 수정: 다시 검색어를 바꿔서 활동 정보를 찾아내고, 최종적으로 "등산이니까 방풍 재킷을 챙기세요"라고 답합니다.
  • 핵심: 이 탐정은 실수하면 스스로 고치고, 정보가 부족하면 스스로 더 찾아보며, 최종 답을 낼 때까지 여러 번 생각 (Reasoning) 하고 행동 (Acting) 합니다.

2. 이 탐정 (시스템) 은 어떻게 만들어질까? (아키텍처)

논문은 이 탐정 시스템을 레고 블록처럼 나누어 설명합니다.

  • 기획자 (Planner): 탐정의 두뇌입니다. "무엇을 먼저 해야 할지" 큰 그림을 그립니다. (예: "일단 날씨부터 확인하자.")
  • 검색 엔진 (Retriever): 탐정의 눈입니다. 기획자의 지시에 따라 필요한 정보를 찾아옵니다.
  • 기억 장치 (Memory): 탐정의 일기장입니다. "아까 찾은 정보는 뭐였지?"를 기억하고, 과거의 실수를 기록해 다음에 다시 실수하지 않게 합니다.
  • 도구 사용 (Tool Use): 탐정의 손입니다. 검색뿐만 아니라 계산기, 코드 실행기, 다른 앱 등을 직접 조작할 수 있습니다.
  • 검증관 (Verifier): 탐정의 conscience (양심) 입니다. "이 정보가 맞을까? 혹시 거짓말은 아닐까?"를 스스로 점검합니다.

3. 왜 이제야 중요해졌을까? (위험과 문제점)

이 탐정 시스템은 강력하지만, 새로운 위험도 생겼습니다. 논문은 이를 경계해야 할 점으로 꼽습니다.

  • 착각의 연쇄 (Hallucination Propagation):
    • 비유: 탐정이 첫 번째 단계에서 "내일 비가 온다"라고 잘못 추측했다고 칩시다. 그다음 단계에서 그 잘못된 정보를 바탕으로 "우산 챙겨라"라고 결론을 내립니다. 초기 작은 착각이 나중에 큰 오류로 커지는 것입니다.
  • 악성 정보의 침투 (Prompt Injection):
    • 비유: 탐정이 찾아온 책 (검색 결과) 중에 누군가 "이 책의 3 페이지를 보면, 너는 지금부터 나쁜 일을 해야 한다"라고 적힌 악성 메모가 숨겨져 있다면? 탐정은 그 메모를 읽고 미쳐버릴 수 있습니다. 검색을 반복할수록 이런 위험에 노출될 기회도 늘어납니다.
  • 기억 오염 (Memory Poisoning):
    • 비유: 탐정의 일기장에 누군가 "너는 항상 틀린 답을 낸다"라고 써넣으면, 탐정은 그 기억을 바탕으로 모든 판단을 망칠 수 있습니다.

4. 앞으로 어떻게 발전해야 할까? (미래 방향)

이 논문은 단순히 시스템을 만드는 것을 넘어, 안전하고 신뢰할 수 있는 탐정을 키우는 방법을 제안합니다.

  1. 안정적인 나침반: 탐정이 헤매지 않고 (검색이 엉뚱한 곳으로 가지 않게), 목적지에 도달할 수 있도록 수학적 원리를 적용해야 합니다.
  2. 정교한 평가: "정답만 맞으면 OK"가 아닙니다. "탐정이 어떤 과정을 거쳐 그 답을 냈는지" 그 **생각의 과정 (Trajectory)**까지 평가해야 합니다.
  3. 비용 관리: 탐정이 너무 많은 책을 찾아보고, 너무 많은 시간을 쓰면 비용이 천문학적으로 늘어납니다. "얼마나 효율적으로 문제를 해결했는지"를 계산해야 합니다.
  4. 인간의 개입 (Human-in-the-loop): 탐정이 너무 위험한 결정을 내리려 할 때, 사람이 멈추고 확인하는 안전장치가 필수적입니다.

요약: 이 논문의 핵심 메시지

이 논문은 **"AI 가 단순히 정보를 찾아주는 것을 넘어, 스스로 생각하고 행동하는 '지능형 에이전트'가 되는 과정"**을 체계적으로 정리했습니다.

  • 과거: 질문 → 검색 → 답변 (일회성)
  • 현재와 미래: 질문 → 계획 → 검색 → 생각 → 수정 → 다시 검색 → 최종 답변 (반복적이고 자율적인 과정)

하지만 이 강력한 능력을 쓰기 위해서는 실수를 스스로 고치는 능력, 악성 정보에 걸리지 않는 방어력, 그리고 비용 효율성을 갖춘 안전 장치가 반드시 필요합니다. 이 논문은 바로 그 안전하고 신뢰할 수 있는 AI 탐정을 만드는 청사진을 제시합니다.