Understanding the Interplay between LLMs' Utilisation of Parametric and Contextual Knowledge: A keynote at ECIR 2025

이 키노트 연설은 ECIR 2025 에서 사전 학습된 파라미터 지식과 검색된 맥락 지식 간의 상호작용, 특히 두 지식 간의 충돌과 맥락 활용 실패 원인을 진단하고 해결하기 위한 연구 결과를 다룹니다.

Isabelle Augenstein

게시일 Wed, 11 Ma
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🧠 핵심 비유: "오래된 두뇌"와 "손편지"

이 연구의 주인공인 LLM 을 상상해 보세요. 이 모델은 어릴 때부터 엄청난 양의 책 (데이터) 을 읽어서 머릿속에 지식을 쑤셔 넣은 천재 학생입니다. 이것이 **'파라메트릭 지식 (Parametric Knowledge)'**입니다.

하지만 세상은 빠르게 변합니다. 학생이 배운 지식이 낡았거나, 혹은 학생이 잘못 기억하고 있을 수도 있죠. 그래서 우리는 학생에게 **새로운 뉴스 기사나 검색 결과 (Context)**를 손편지로 건네줍니다. 이것이 **'맥락 지식 (Contextual Knowledge)'**입니다.

이 논문은 이 학생이 **"내 머릿속 기억이 맞을까, 아니면 지금 준 손편지가 맞을까?"**를 어떻게 판단하는지, 그리고 왜 가끔은 손편지를 무시하고 고집을 부리는지 분석합니다.


1. 문제: "왜 학생은 손편지를 무시할까?" (갈등)

학생 (LLM) 은 머릿속에 이미 "일본의 수도는 도쿄다"라고 확실히 기억하고 있습니다. 그런데 우리가 "사실은 스웨덴의 스톡홀름이야"라는 거짓 손편지를 주면 어떻게 될까요?

  • 내부 갈등 (Intra-memory conflict): 학생이 공부할 때 '도쿄'라고 배운 것도 있고, '스톡홀름'이라고 잘못 배운 것도 섞여 있어서 머릿속이 혼란스러운 상태입니다.
  • 외부 갈등 (Context-memory conflict): 머릿속 기억 (도쿄) 과 새로 받은 손편지 (스톡홀름) 가 정면으로 충돌합니다.

놀라운 발견: 연구진은 재미있는 사실을 발견했습니다.

"사실은 변하지 않는 상식 (예: 일본의 수도) 일수록, 학생은 새로운 손편지를 더 쉽게 믿어버린다!"

반대로, "내일 날씨가 어떨지"처럼 변하기 쉬운 사실은 오히려 학생이 "아, 이건 내 기억을 믿어야지"라고 더 고집을 부립니다. 즉, 변하지 않는 사실일수록 외부 정보에 더 취약하다는 뜻입니다.

2. 연구 1: "학생이 어떤 기억을 꺼냈는지 추적하기" (기여도 분석)

우리는 학생이 정답을 맞힐 때, **머릿속의 어떤 '뉴런 (세포)'**이 작동했는지, 혹은 **어떤 '교과서 페이지 (학습 데이터)'**를 참고했는지 알고 싶습니다.

  • 비유: 학생이 수학 문제를 풀 때, "내 기억 속 3 번 문제 풀이법이 도움이 됐다"라고 말하는 것과, "뇌의 왼쪽 앞부분이 활성화됐다"라고 말하는 것은 다릅니다.
  • 결과: 연구진은 이 두 가지 방법 (기억의 출처 찾기 vs 뇌세포 활성화 찾기) 을 비교했습니다. 그런데 놀랍게도, 가장 중요한 교과서 페이지를 찾아내서 다시 공부시키는 것 (파인튜닝) 은, 그냥 무작위로 고른 페이지를 공부시키는 것보다 효과가 별로 없었다는 결과가 나왔습니다.
  • 이유: 중요한 페이지들이 서로 너무 비슷해서 다양성이 부족했기 때문입니다. 즉, "무엇이 중요한지"를 정확히 찾아내는 것만으로는 부족하고, 다양한 관점이 필요하다는 교훈을 줍니다.

3. 연구 2: "실제 상황에서의 RAG (검색 증강 생성)"

LLM 이 검색 기능을 쓸 때 (RAG), 우리는 "검색된 정보를 잘 믿고 사용할까?"라고 기대합니다. 하지만 연구진은 **실제 세상 (Real-world)**과 **가짜 실험실 (Synthetic Data)**의 차이를 발견했습니다.

  • 비유: 실험실에서는 "학생이 거짓말을 하면 바로 알아채고 손편지를 믿는다"고 가르쳤지만, 실제 세상에서는 학생이 어떤 손편지를 믿을지 예측하기 훨씬 어렵다는 것입니다.
  • 발견:
    • 학생은 직관적이고 단호한 말투로 된 정보 (예: "이게 맞습니다!") 를 더 잘 믿습니다.
    • 하지만 긴 글이나 출처가 복잡한 글은 잘 무시하거나 혼란을 겪습니다.
    • 실험실 데이터는 "갈등"을 너무 자주 만들어내서, 실제 세상에서는 갈등이 그렇게 자주 일어나지 않는다는 것을 깨닫게 해줍니다.

4. 결론: " spiral (나선) 을 오르는 연구"

이 논문은 LLM 이 완벽한 지능이 아니라, 오래된 기억과 새로운 정보 사이에서 혼란스러워하는 존재임을 보여줍니다.

  • 교훈: 단순히 검색 결과를 덧붙인다고 해서 LLM 이 똑똑해지는 게 아닙니다. 어떤 상황에서, 어떤 종류의 정보를, 어떻게 제시해야 학생이 머릿속 기억을 올바르게 수정할지 연구해야 합니다.
  • 마무리: 저자는 "연구는 원점에서 도는 것이 아니라, 더 나은 재료로 나선형으로 올라가는 것"이라고 말합니다. 우리는 아직 LLM 의 속마음을 완전히 이해하지 못했지만, 이 연구들이 그 이해를 한 단계 더 높여준 것입니다.

📝 한 줄 요약

"거대 AI 는 머릿속의 오래된 기억과 새로 받은 정보 사이에서 갈등하며, 때로는 변하지 않는 상식일수록 새로운 정보에 더 쉽게 넘어갑니다. 우리는 AI 가 언제, 어떻게 정보를 믿을지 더 잘 이해해야 합니다."