Consistency Amplifies: How Behavioral Variance Shapes Agent Accuracy

이 논문은 LLM 기반 에이전트의 행동 일관성이 정확도와 양의 상관관계를 보이지만, 일관성 자체가 정확성을 보장하지는 않으며 오히려 잘못된 해석을 증폭시킬 수 있음을 SWE-bench 벤치마크를 통해 규명했습니다.

Aman Mehta

게시일 2026-03-30
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🍳 비유: 세 명의 요리사와 같은 레시피

연구진은 세 가지 다른 AI 모델 (Claude, GPT-5, Llama) 을 세 명의 요리사로 상상해 보라고 합니다. 모두에게 똑같은 '새로운 요리 레시피 (소프트웨어 버그 수정)'를 주고, 5 번씩 요리하게 했어요.

1. 세 명의 요리사 비교

  • 클로드 (Claude): 꼼꼼한 명장

    • 특징: 아주 천천히, 하지만 매우 꼼꼼하게 일합니다. 재료를 다듬는 과정부터 조리법까지 매번 거의 똑같이 진행해요.
    • 결과: 가장 일관성 있고, 가장 잘 요리합니다. (정답률 58%, 행동 일관성 90% 이상)
    • 문제: 만약 레시피를 잘못 이해했다면? 5 번 모두 똑같은 실수를 반복합니다. "소금이 부족해"라고 생각해서 5 번 모두 소금을 안 넣어요.
  • GPT-5: 빠른 신인

    • 특징: 클로드보다 4.7 배나 빠르게 요리합니다. 재료를 썰고 볶는 속도가 매우 빠르죠.
    • 결과: 속도는 빠르지만, 일관성은 떨어지고 정답률도 낮습니다. (정답률 32%, 행동 일관성 중간)
    • 문제: 너무 빨라서 때로는 재료를 잘못 고르기도 하고, 매번 다른 실수를 하기도 합니다.
  • Llama: 초보 요리사

    • 특징: 요리하는 방식이 매번 다릅니다. 오늘은 국물을 넣고, 내일은 안 넣고, 또 내일은 불을 너무 세게 켭니다.
    • 결과: 가장 일관성이 없고, 정답률도 매우 낮습니다. (정답률 4%, 행동 일관성最差)
    • 문제: 운이 좋아서 가끔은 잘 나오지만, 대부분은 망칩니다.

💡 핵심 발견 1: "일관성은 양날의 검이다"

이 연구의 가장 중요한 메시지는 "일관성 = 정답"이 아니라는 점입니다.

  • 일관성이 좋은 것: 요리사가 레시피를 바르게 이해했을 때, 일관성은 큰 장점입니다. 매번 똑같은 맛있는 요리를 내놓으니까요.
  • 일관성이 나쁜 것: 하지만 요리사가 레시피를 틀리게 이해했다면? 일관성은 치명적입니다.
    • 연구 결과, 클로드가 실패한 경우 중 **71%**는 "똑같은 오해를 5 번 모두 반복한 경우"였습니다.
    • 마치 "이 요리는 매운맛이 아니라 달콤해야 한다"고 잘못 이해한 요리사가, 5 번 모두 설탕을 잔뜩 넣는 상황과 같습니다. 일관성 있게 틀린 요리를 내놓은 것이죠.

결론: AI 가 똑같은 실수를 반복한다면, 그건 AI 가 '잘못된 생각'을 확신하고 있다는 신호일 수 있습니다.


💡 핵심 발견 2: "빠르다고 좋은 건 아니다"

  • GPT-5클로드보다 4.7 배 더 빠릅니다. (요리 시간이 짧음)
  • 하지만 그 대가로 정답률은 1.8 배 낮아지고, 일관성도 2.1 배 나빠집니다.
  • 교훈: 복잡한 일 (소프트웨어 개발 등) 을 할 때는 빠른 속도보다 꼼꼼한 이해와 신중한 접근이 더 중요합니다. 너무 급하게 하면 실수가 섞여 결과가 예측 불가능해집니다.

💡 핵심 발견 3: "시작이 반이 아니다"

우리는 보통 "처음에 같은 행동을 하면 나중에 비슷한 결과가 나오겠지?"라고 생각합니다. 하지만 연구 결과는 달랐습니다.

  • 클로드GPT-5는 모두 요리를 시작할 때 3 번째 단계쯤에 서로 다른 방법을 선택하기 시작했습니다 (행동이 갈라짐).
  • 그런데 클로드는 갈라진 뒤에도 매우 일관된 결과를 냈고, GPT-5는 갈라진 뒤에도 매우 혼란스러운 결과를 냈습니다.
  • 교훈: 시작이 비슷하다고 해서 결과가 비슷해지는 건 아닙니다. 중요한 것은 갈라진 뒤에도 얼마나 논리적으로 일관되게 나아가는가입니다.

🚀 이 연구가 우리에게 주는 메시지

  1. AI 를 믿을 때 "일관성"만 보면 안 됩니다.
    AI 가 똑같은 일을 반복해서 잘해낸다고 해서 무조건 신뢰할 수는 없습니다. 만약 AI 가 잘못된 전제를 가지고 일관되게 행동한다면, 그 결과는 일관되게 실패할 테니까요.

  2. 가장 중요한 건 "이해"입니다.
    AI 가 행동을 얼마나 일관되게 하느냐 (실행) 보다는, **문제를 얼마나 정확하게 이해했느냐 (해석)**가 성공의 핵심입니다.

  3. 실무 적용 시:

    • 빠른 프로토타이핑이 필요하면 GPT-5 같은 빠른 모델을 쓸 수 있습니다.
    • 하지만 **실제 서비스 (Production)**에 투입할 때는, 실수를 반복하지 않고 꼼꼼하게 문제를 해결하는 클로드 같은 모델을 선택하는 것이 안전합니다.

한 줄 요약:

"AI 가 똑같은 실수를 반복한다면, 그것은 '일관성'의 승리라기보다 '오해'의 승리일 수 있습니다. 중요한 건 일관된 행동이 아니라, 올바른 이해입니다."