Geometric Scaling of Bayesian Inference in LLMs

본 논문은 Pythia, Llama-3 등 다양한 대규모 언어 모델에서도 소규모 모델에서 관찰된 베이지안 추론의 기하학적 특징 (예측 엔트로피와 상관된 주성분 축) 이 유지되며, 이를 통한 불확실성 추정이 이루어짐을 확인하고 해당 기하학적 구조가 불확실성의privileged한 읽기 도구임을 입증했습니다.

Naman Agarwal, Siddhartha R. Dalal, Vishal Misra

게시일 2026-03-12
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🧠 핵심 비유: "AI 의 두뇌 지도"

이 논문의 결론은 매우 간단합니다. **"실제 거대 AI 모델들도 우리가 상상했던 '추리의 지도'를 가지고 있다."**는 것입니다.

1. AI 는 어떻게 '의심'을 표현할까? (저차원 매니폴드)

  • 비유: AI 가 글을 쓸 때, "이게 맞을까? 저게 맞을까?"라고 고민하는 상태를 상상해 보세요.
  • 논문 내용: 연구자들은 AI 의 두뇌 내부 (Value vectors) 를 살펴봤습니다. 놀랍게도, AI 가 **어떤 답변에 대해 얼마나 확신 없는지 (불확실성)**는 두뇌 공간에서 하나의 직선으로 표현되고 있었습니다.
  • 일상적 설명: 마치 AI 의 두뇌 속에 "불확실성 게이지"가 하나 꽂혀 있는 것처럼요. 이 게이지가 오른쪽으로 갈수록 AI 는 "아, 내가 잘 모르겠다"라고 느끼고, 왼쪽으로 갈수록 "확실히 알겠다"라고 느낍니다. 이 구조는 작은 실험실 AI 에서만 발견되는 게 아니라, 실제 거대 모델에서도 똑같이 존재했습니다.

2. "주제"가 바뀌면 지도가 좁아진다 (도메인 제한 효과)

  • 비유: 여러분이 "전 세계 모든 뉴스"를 읽을 때는 머릿속이 복잡하고 다양한 생각이 오갑니다. 하지만 "수학 문제"만 푼다면 머릿속은 훨씬 단순하고 집중됩니다.
  • 논문 내용: AI 에게 잡다한 질문 (뉴스, 코딩, 철학 섞인 것) 을 주면 두뇌 구조가 복잡하게 퍼져있었습니다. 하지만 수학 문제만 물어보면, AI 의 두뇌 구조가 하나의 직선으로 쫙 모였습니다.
  • 일상적 설명: AI 는 주제가 명확해지면 "수학 모드"로 전환하며, 이때 두뇌의 복잡한 생각들이 정리되어 가장 효율적인 추리 경로 (하나의 직선) 를 따릅니다. 이는 AI 가 실제로 논리적인 추론을 할 때 그 '지도'를 사용한다는 강력한 증거입니다.

3. 추론은 '학습'이 아니라 '실시간 작동'이다 (SULA 실험)

  • 비유: AI 에게 "사과가 빨간색이고, 배는 초록색이다"라는 단서를 몇 개 더 주면, AI 는 그 정보를 바탕으로 "아, 이제 내가 더 확신 있게 답할 수 있겠다"라고 생각하며 두뇌 상태가 변합니다.
  • 논문 내용: 연구자들은 AI 에게 단서를 하나씩 더 주면서 (In-context learning) 두뇌 상태를 관찰했습니다. 그 결과, AI 는 단서가 늘어날수록 두뇌 속의 '불확실성 게이지'를 따라 움직이며 정답에 가까워지는 것을 확인했습니다.
  • 일상적 설명: AI 는 단순히 기억을 꺼내는 게 아니라, 새로운 정보를 받으면 두뇌 속의 지도를 따라 실시간으로 이동하며 답을 찾습니다. 이는 마치 우리가 새로운 증거를 보고 생각을 바꾸는 것과 똑같은 방식입니다.

4. 모델마다 '추리 스타일'이 다르다 (아키텍처의 차이)

  • 비유: 같은 목적 (추리) 을 달성하더라도, 어떤 사람은 "모든 정보를 한눈에 훑어보고" (전체 주의), 어떤 사람은 "가까운 정보만 보고" (슬라이딩 윈도우) 추리합니다.
  • 논문 내용:
    • Pythia, Phi-2: 두뇌 지도가 매우 깔끔하고 명확합니다. (전통적인 방식)
    • Llama, Mistral: 효율성을 위해 일부 기능을 줄였지만, 기본적인 지도 구조 (불확실성 게이지) 는 그대로 유지했습니다. 다만, 정보를 집중시키는 방식 (주의 집중) 이 조금 덜 정교해졌습니다.
  • 일상적 설명: AI 모델이 커지고 효율적으로 변해도, '추리를 위한 기본 뼈대'는 무너지지 않았습니다. 다만, 그 뼈대를 어떻게 활용하느냐에 따라 모델마다 '추리하는 느낌'이 조금씩 다를 뿐입니다.

5. 중요한 발견: "지도"는 추리의 '결과물'일 뿐, '원인'은 아니다

  • 비유: "날씨 예보 지도"를 지우면 실제 날씨가 변하나요? 아닙니다. 지도는 날씨를 보여주는 도구일 뿐입니다.
  • 논문 내용: 연구자들은 AI 의 '불확실성 게이지' (지도) 를 인위적으로 지워보거나 건드려봤습니다. 그랬더니 지도는 망가졌지만, AI 가 답을 내는 능력 (추리 성능) 은 크게 떨어지지 않았습니다.
  • 일상적 설명: AI 의 두뇌 속 '불확실성 지도'는 추리 과정이 끝난 후 **남은 흔적 (Readout)**일 뿐, 그 추리를 직접 수행하는 '엔진'은 아닙니다. 추리는 두뇌 전체에 분산되어 일어나고, 그 결과물이 이 지도에 나타나는 것입니다.

📝 한 줄 요약

이 논문은 **"거대 AI 모델들도 우리가 상상했던 것처럼, 복잡한 두뇌 속에 '불확실성'을 정리하는 깔끔한 지도를 가지고 있으며, 새로운 정보를 받으면 그 지도를 따라 실시간으로 추리를 수행한다"**는 것을 증명했습니다.

이는 AI 가 단순히 통계적 확률만 계산하는 게 아니라, 인간과 유사한 논리적 추론의 구조를 내재하고 있음을 보여줍니다. 다만, 그 구조가 AI 의 '성능'을 결정하는 유일한 엔진은 아니라서, 지도를 지워도 AI 는 여전히 잘 작동한다는 점이 흥미롭습니다.