Thinking to Recall: How Reasoning Unlocks Parametric Knowledge in LLMs

이 논문은 단순한 사실적 질문에서도 추론이 '계산 버퍼'와 '사실적 프라임' 메커니즘을 통해 모델의 암기 지식 회상을 촉진하지만, 중간 단계의 환각은 최종 답변의 오류로 이어질 수 있음을 규명하고 환각 없는 추론 경로를 우선시함으로써 정확도를 향상시킬 수 있음을 보여줍니다.

Zorik Gekhman, Roee Aharoni, Eran Ofek, Mor Geva, Roi Reichart, Jonathan Herzig

게시일 Wed, 11 Ma
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"왜 인공지능 (LLM) 이 복잡한 추론 과정을 거칠 때, 단순한 사실 질문에도 더 잘 답하는가?"**라는 의문을 해결합니다.

일반적으로 우리는 "추론 (Reasoning)"이 수학 문제나 복잡한 논리 퀴즈를 풀 때만 필요하다고 생각합니다. "누가 10 번째 한국 대통령이었나요?" 같은 단순한 사실 질문에는 논리를 단계별로 나누어 생각할 필요가 없기 때문이죠. 하지만 이 연구는 단순한 사실 질문에서도 '생각하는 과정 (추론)'을 거치면 정답을 찾아낼 확률이 훨씬 높아진다는 놀라운 사실을 발견했습니다.

이 현상을 이해하기 쉽게 세 가지 핵심 비유로 설명해 드리겠습니다.


1. 핵심 발견: "생각하는 시간" 자체가 보물상자를 엽니다

연구진은 인공지능에게 "생각하지 말고 바로 답해라 (Reasoning OFF)"와 "생각한 뒤 답해라 (Reasoning ON)" 두 가지 모드로 질문을 던졌습니다. 결과는 놀라웠습니다. 생각하는 과정을 거친 모델이 정답을 찾아내는 확률이 훨씬 높았습니다.

이는 마치 보물상자에 비유할 수 있습니다.

  • Reasoning OFF: 보물상자를 바로 열어보려 하지만, 자물쇠가 너무 단단해서 안 열립니다. (모델이 알고 있는 지식이지만 꺼내지 못함)
  • Reasoning ON: 상자를 열기 위해 "자물쇠를 어떻게 풀까?", "열쇠는 어디에 있을까?"라고 생각하며 시간을 보냅니다. 이 생각하는 시간 동안 모델의 뇌가 활성화되어, 평소에는 꺼내지 못했던 숨겨진 지식 (Parametric Knowledge) 을 꺼내게 됩니다.

2. 왜 효과가 있을까? 두 가지 비밀 메커니즘

연구진은 이 비밀을 풀기 위해 두 가지 주요 원인을 찾아냈습니다.

① 계산용 '여유 공간' (Computational Buffer)

비유: "생각하는 동안 머릿속에서 시뮬레이션을 돌리는 것"

인공지능이 "생각해 보겠습니다"라고 말하며 빈 문장이나 의미 없는 말을 길게 늘어놓을 때도 정답률이 오릅니다.

  • 설명: 이는 말의 내용 (의미) 이 중요한 게 아니라, 생각하는 과정 그 자체가 추가적인 계산 시간을 벌어주기 때문입니다.
  • 일상 예시: 수학 문제를 풀 때, 답을 바로 말하기보다 "자, 이 숫자를 먼저 더하고..."라고 중얼거리며 시간을 끄는 동안, 뇌가 더 많은 계산을 수행할 수 있는 여유를 얻는 것과 같습니다. 모델은 이 '생각하는 토큰 (단어)'들을 이용해 정답을 찾기 위한 숨은 계산을 수행합니다.

② 사실의 '연상 효과' (Factual Priming)

비유: "키보드 타이핑을 할 때, 관련 단어를 먼저 치면 다음 단어가 떠오르는 것"

단순한 질문에서도 모델은 답을 말하기 전에 관련된 사실들을 나열합니다.

  • 설명: "10 번째 왕은 누구인가?"라고 물으면, 모델은 "1 번째 왕은 A, 2 번째는 B..."라고 나열하다가 자연스럽게 "10 번째는 C"라는 정답에 도달합니다.
  • 일상 예시: 친구의 이름을 기억해내려고 할 때, "그 친구는 학교 때 축구팀이었지, 키가 컸지..."라고 관련 사실을 하나씩 떠올리면, 결국 친구의 이름이 문득 떠오르는 **연상 작용 (Priming)**과 같습니다. 모델은 이 '사실 나열'을 통해 정답으로 가는 다리를 놓는 것입니다.

3. 주의할 점: "거짓된 생각"은 정답을 망칩니다

하지만 이 '사실 나열' 전략에는 위험이 따릅니다.

  • 위험: 모델이 중간에 나열한 사실 중 하나가 **거짓 (할루시네이션)**이라면, 그 거짓된 사실이 정답을 찾는 길을 막아 버립니다.
  • 비유: 길을 찾으려고 지도를 보는데, 지도에 틀린 길이 표시되어 있다면, 아무리 열심히 생각해도 엉뚱한 곳에 도착하게 됩니다.
  • 연구 결과: 중간에 거짓된 사실을 언급한 추론 과정은, 정답을 찾을 확률을 크게 떨어뜨렸습니다.

4. 결론: 어떻게 활용할까?

이 연구는 우리에게 중요한 교훈을 줍니다.

  1. 단순한 질문에도 '생각'이 필요하다: 복잡한 문제뿐만 아니라 단순한 사실 질문에서도 추론 과정을 거치면 모델의 숨겨진 지식이 깨어납니다.
  2. 질문의 난이도가 중요한 게 아니다: 질문이 복잡해서 추론이 좋은 게 아니라, 모델이 지식을 꺼내오기 위해 '생각하는 과정'이 필요해서 좋은 것입니다.
  3. 실제 적용: 앞으로는 인공지능이 답을 낼 때, 중간에 거짓된 사실이 없는 '깨끗한 생각 과정'을 거친 답변을 우선적으로 선택하도록 만들면, 훨씬 더 정확한 AI 를 만들 수 있습니다.

한 줄 요약:

인공지능에게 "생각해 보라"고 하면, 그 생각하는 시간이 뇌를 깨우고, 관련된 사실들을 떠올리게 하여, 평소엔 꺼내지 못했던 숨겨진 정답을 찾아내게 해줍니다. 다만, 그 생각 속에 거짓말이 섞이면 실패한다는 점을 기억해야 합니다.