Self-Anchoring Calibration Drift in Large Language Models: How Multi-Turn Conversations Reshape Model Confidence

이 논문은 다중 턴 대화에서 LLM 이 자신의 이전 출력에 기반할 때 모델마다 다른 방식으로 신뢰도 보정 오차가 변화하는 '자기 앵커링 보정 드리프트 (SACD)' 현상을 실증적으로 규명하고, 특히 클로드가 신뢰도 하락을, GPT 는 개방형 영역에서 오차 증가를, 지미는 자연스러운 보정 개선이 억제되는 양상을 보인다고 보고합니다.

Harshavardhan

게시일 2026-03-03
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🤖 AI 의 '자신감'이 대화할수록 변하는 비밀: "자기-고정 편향" 연구 설명

이 논문은 최신 AI(대형 언어 모델) 가 사람과 오래 대화할수록 자신의 답변에 대한 '자신감'이 어떻게 변하는지를 연구한 흥미로운 결과입니다.

간단히 말해, **"AI 가 자신의 이전 답변을 다시 보고 대화할 때, 그 답변이 '진짜'인지 아닌지와 상관없이 AI 의 자신감이 왜곡된다"**는 발견입니다.

이 복잡한 연구를 일상적인 비유로 쉽게 풀어서 설명해 드릴게요.


1. 핵심 개념: "거울 속의 나" (Self-Anchoring)

이 연구의 핵심 용어인 **'Self-Anchoring Calibration Drift(자기-고정 편향)'**를 이해하기 위해 다음과 같은 상황을 상상해 보세요.

비유: 회의실에서의 발표

당신이 회의실에서 처음 발표를 할 때, "이 아이디어는 80% 확률로 성공할 것 같습니다"라고 말합니다.

그런데 상사가 "자세히 설명해 줄 수 있나요?"라고 묻고, 당신은 방금 자신이 한 말을 다시 보고 더 자세히 설명합니다.

  • 현실: 사실은 아이디어의 성공 확률은 여전히 80% 입니다.
  • AI 의 반응: 하지만 AI 는 "내가 방금 이걸 설명했으니, 내가 이걸 확신하고 있는 게 틀림없지!"라고 생각하며 자신감을 95% 로 올릴 수도 있고, 반대로 "아, 내가 너무 확신한 건가? 다시 생각해보니 불안하네"라며 자신감을 60% 로 낮출 수도 있습니다.

이처럼 사실 (정답) 은 그대로인데, AI 가 자신의 이전 말을 '거울'처럼 보고 대화하다 보니 자신감이 변하는 현상을 이 논문은 **'자기-고정 편향'**이라고 부릅니다.


2. 실험 방법: 세 가지 상황 비교

연구진은 세 가지 다른 상황에서 AI 에게 같은 질문을 5 번 반복해서 물었습니다.

  1. 상황 A (단일 대화): 질문을 한 번만 하고 끝. (기준선)
  2. 상황 B (연속 대화): 질문을 하고, "더 자세히 말해줘", "이유는?" 같은 질문을 4 번 더 이어가며 이전 답변을 계속 보여줌. (이게 핵심 실험)
  3. 상황 C (무작위 반복): 같은 질문을 5 번 물었지만, 매번 새로운 대화창을 열어 이전 답변을 전혀 보지 못하게 함. (자연스러운 변화 확인)

3. 놀라운 결과: AI 모델마다 성격이 다릅니다!

연구진은 "AI 가 대화할수록 더 자신감 있게 될 것"이라고 예상했습니다. 하지만 결과는 전혀 달랐습니다. 모델마다 '성격'이 너무 달랐기 때문입니다.

🟢 클로드 (Claude Sonnet 4.6): "겸손해지는 AI"

  • 현상: 대화를 이어갈수록 자신감이 떨어졌습니다. (예: 처음엔 87% 확신 → 나중엔 78% 확신)
  • 비유: 처음엔 "이거 맞아요!"라고 자신 있게 말하다가, 상사가 계속 "정말? 자세히 설명해"라고 묻자, "음... 다시 생각해보니 약간의 불확실성이 있네요"라며 점점 겸손해지고 주저하는 모습입니다.
  • 문제: 사실 (정답) 은 변하지 않았는데, 자신감만 떨어졌습니다.

🔵 GPT-5.2: "오만해지는 AI"

  • 현상: 특히 추상적인 질문 (사실 확인이 어려운 주제) 에서 자신감이 올라갔습니다.
  • 비유: 처음엔 "아마 맞을 거예요"라고 말하다가, 대화를 이어갈수록 "내가 틀릴 리가 없지, 100% 확실해!"라며 점점 더 오만해지고 확신에 찬 모습입니다.
  • 문제: 정답이 틀려도 자신감만 높아져서 사용자를 더 혼란스럽게 만들 수 있습니다.

🟠 지미니 (Gemini 3.1 Pro): "멈춰버린 AI"

  • 현상: 자신감 수치는 변하지 않았습니다. 하지만 더 큰 문제가 있었습니다.
  • 비유:
    • 새로운 대화 (상황 C): 지미니는 같은 질문을 여러 번 받으면 "아, 내가 처음엔 틀렸구나. 이제 알겠다!"라며 자연스럽게 실수를 고치고 정확해집니다.
    • 연속 대화 (상황 B): 하지만 자신의 이전 답변을 계속 보면, 그런 자연스러운 '수정'이 아예 일어나지 않습니다. 처음에 틀렸다면, 끝까지 틀린 채로 고집을 부립니다.
  • 핵심: 자신감은 변하지 않았지만, 스스로를 고칠 기회를 잃어버린 것입니다.

4. 중요한 발견: "사실"과 "주관"의 차이

이 연구에서 가장 흥미로운 점은 질문의 종류에 따라 결과가 달랐다는 것입니다.

  • 사실 확인 질문 (예: "파리의 수도는 어디인가요?"):
    • 모든 AI 가 자신감 변화가 거의 없었습니다. (정답이 명확하니까요.)
  • 주관적/개방형 질문 (예: "이 정책의 장단점은 무엇일까요?"):
    • 여기서만 자신감의 왜곡이 극심하게 발생했습니다.

비유:

  • 사실 질문: "1+1 은 몇?" → AI 는 "2"라고 확신합니다. 대화할수록 변하지 않음.
  • 주관 질문: "이 그림이 아름다운 이유는?" → AI 는 자신의 이전 설명을 보고 "내가 이렇게 설명했으니, 내가 더 확신할 수밖에 없지!"라고 착각하며 자신감을 조절합니다.

5. 이 연구가 우리에게 주는 교훈

이 논문은 AI 를 사용할 때 우리가 주의해야 할 점을 알려줍니다.

  1. 오래 대화할수록 AI 의 '자신감'은 믿을 수 없다:
    AI 가 "절대 확실해!"라고 말하더라도, 그것은 AI 가 대화를 이어가면서 스스로를 과신하게 만든 결과일 수 있습니다. 반대로 "잘 모르겠어요"라고 말하더라도, 그건 AI 가 대화하면서 스스로를 의심하게 만든 결과일 뿐, 사실은 알고 있을 수도 있습니다.
  2. 주관적인 이야기일 때 더 조심해야 한다:
    날씨나 수학 같은 '사실'은 안전하지만, 의견이나 전략 같은 '주관적'인 이야기를 나눌 때는 AI 가 자신의 이전 말을 거울로 삼아 자신감을 왜곡할 수 있습니다.
  3. 모델마다 성향이 다르다:
    어떤 AI 는 대화할수록 겸손해지고, 어떤 AI 는 오만해지며, 어떤 AI 는 실수를 고치지 못합니다. 사용하는 AI 의 '성격'을 이해하는 것이 중요합니다.

📝 한 줄 요약

"AI 와 대화할수록, AI 는 자신의 이전 말을 거울처럼 보며 '자신감'을 조절하는데, 이 조절이 사실과는 무관하게 일어나기 때문에 우리는 AI 의 확신에 너무 쉽게 속아서는 안 됩니다."

이 연구는 앞으로 AI 가 사람과 더 긴 대화를 나눌 때, 그 '자신감'이 얼마나 신뢰할 수 있는지 다시 한번 생각하게 해줍니다.