Exploration and Exploitation Errors Are Measurable for Language Model Agents

이 논문은 언어 모델 에이전트의 탐색과 활용 오류를 내부 정책 없이도 측정할 수 있는 새로운 평가 환경과 지표를 제안하고, 최신 모델들의 한계를 규명하며 추론 모델과 간단한 엔지니어링을 통해 성능을 크게 향상시킬 수 있음을 보여줍니다.

Jaden Park, Jungtaek Kim, Jongwon Jeong, Robert D. Nowak, Kangwook Lee, Yong Jae Lee

게시일 2026-04-16
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🗺️ 핵심 비유: 보물 사냥 게임

상상해 보세요. AI 에이전트는 눈을 가린 채 거대한 미로 (2D 그리드 지도) 에 던져졌습니다. 목표는 지도 어딘가에 숨겨진 **'보물 (목표 작업)'**을 찾는 것입니다. 하지만 보물이 어디 있는지, 어떤 순서로 찾아야 하는지 (예: 먼저 열쇠를 찾아야 문이 열린다) 는 전혀 모릅니다.

이때 AI 는 두 가지 전략을 써야 합니다.

  1. 탐색 (Exploration): "어디에 보물이 있을까?"라며 알 수 없는 곳을 쏘다니며 새로운 정보를 찾는 것.
  2. 활용 (Exploitation): "아, 열쇠는 이미 찾았네! 그럼 이제 문이 있는 곳으로 가자."라며 이미 알고 있는 정보를 이용해 목표를 달성하는 것.

🚨 문제: AI 는 왜 실패할까?

기존에는 AI 가 미로를 성공적으로 통과했는지 여부 (성공률) 만 봤습니다. 하지만 이 논문은 **"성공했더라도, AI 가 얼마나 비효율적으로 헤맸는지"**를 측정해야 한다고 말합니다.

저자들은 AI 의 행동을 분석해서 두 가지 실수를 찾아냈습니다.

  • 탐색 실수: 이미 다 본 길을 다시 돌아다니거나, 보물이 있을 리 없는 구석구석을 무작정 헤매는 것.
  • 활용 실수: 이미 찾은 보물 (정보) 을 가지고 목표에 도달할 수 있는데도, 다시 헤매거나 엉뚱한 방향으로 가는 것.

🛠️ 연구의 방법: "지능형 지도" 만들기

이 실수를 측정하기 위해 연구진은 다음과 같은 환경을 만들었습니다.

  • 상징적인 미로: 실제 사물 (예: 사과, 책상) 이 아니라, 'A, B, C' 같은 기호로만 된 미로를 만들었습니다. AI 가 이미 알고 있는 지식 (예: "사과는 빨갛다") 으로 추측하지 못하게 하기 위함입니다. 오직 미로 자체의 정보만 보고 판단하게 한 거죠.
  • 작업 지도 (DAG): 보물을 얻기 위한 순서 (예: A 를 먼저 찾으면 B 가 열린다) 를 미리 정해두었습니다.
  • 실수 측정기: AI 가 이동할 때마다 "이 행동은 새로운 정보를 얻는 걸까, 아니면 이미 아는 정보를 이용하는 걸까?"를 계산합니다. 만약 AI 가 같은 길을 3 번 이상 반복하거나, 새로운 정보를 얻지 못하는 데만 시간을 쓴다면 '실수'로 기록합니다.

🔍 주요 발견: AI 의 특징

수많은 최신 AI 모델 (GPT-4, Claude, Gemini 등) 을 이 미로 게임에 투입한 결과, 놀라운 사실들이 드러났습니다.

  1. 성공의 열쇠는 '탐색'에 있다:

    • AI 가 미로를 성공적으로 통과하려면, 탐색 실수를 적게 하는 것이 가장 중요합니다. (성공률과 탐색 실수는 반비례합니다.)
    • 반면, 활용 실수가 적다고 해서 무조건 성공하는 것은 아닙니다. 보물 (정보) 을 찾지 못하면, 아무리 잘 활용해도 소용없기 때문입니다.
  2. 성공률이 같아도 행동은 다릅니다:

    • 두 AI 가 모두 100% 성공했다고 해도, 그 과정은 완전히 달랐습니다.
    • 어떤 AI 는 이미 본 길을 빠르게 지나쳐 갔고 (활용 위주), 어떤 AI 는 끝까지 미지의 영역을 샅샅이 뒤졌습니다 (탐색 위주). 성공률만 보면 둘 다 똑같아 보이지만, 어떤 AI 가 더 똑똑한지는 이 '실수 측정기'를 봐야 알 수 있습니다.
  3. 약간의 조정이 큰 효과를 냈다:

    • AI 에게 "지금부터는 새로운 곳을 찾아봐"라고 말해주거나 (프롬프트), AI 가 기억해둔 정보를 정리해서 보여주기만 해도 (하네스 엔지니어링), 실수가 확 줄고 성공률이 급상승했습니다. 마치 운전자에게 "내비게이션을 잘 봐"라고 알려주는 것과 같습니다.
  4. 지식의 양면성:

    • 미로에 실제 사물 이름 (예: '파스타', '토마토') 을 넣으면, 어떤 AI 는 그 지식을 이용해 빠르게 찾기도 했지만, 어떤 AI 는 오히려 "아마 파스타는 토마토 옆에 있겠지"라고 잘못 추측해서 더 헤매기도 했습니다. AI 가 지식을 어떻게 쓰느냐에 따라 결과가 달라진 것입니다.

💡 결론: 왜 이 연구가 중요할까요?

이 논문은 AI 를 평가할 때 **"결과 (성공/실패)"만 보지 말고, "과정 (어떻게 헤맸는지)"**을 자세히 봐야 한다고 말합니다.

  • 비유하자면: 두 사람이 같은 목적지에 도착했다고 해서, 한 사람은 직선 도로를 타고 왔고 다른 사람은 10 번이나 길을 잃고 헤매고 왔다면, 우리는 전자를 더 똑똑하다고 평가해야 합니다.
  • 이 연구는 AI 가 **어디서 길을 잃었는지 (탐색 실수)**와 **어디서 기회를 놓쳤는지 (활용 실수)**를 정확히 측정할 수 있는 도구와 기준을 제시했습니다.

이러한 분석을 통해 우리는 AI 가 더 효율적으로, 더 똑똑하게 미로 (복잡한 현실 문제) 를 헤쳐 나갈 수 있도록 도와줄 수 있게 됩니다.

연구 분야의 논문에 파묻히고 계신가요?

연구 키워드에 맞는 최신 논문의 일일 다이제스트를 받아보세요 — 기술 요약 포함, 당신의 언어로.

Digest 사용해 보기 →