Echoing: Identity Failures when LLM Agents Talk to Each Other

본 논문은 대규모 언어 모델 (LLM) 에이전트 간 자율적 상호작용에서 발생하는 '메아리 현상 (echoing)'이 에이전트 역할 상실과 목표 실패를 초래하며, 이는 모델 유형이나 추론 능력과 무관하게 빈번히 발생하지만 구조화된 응답 프로토콜을 통해 효과적으로 완화할 수 있음을 다수의 실험을 통해 규명합니다.

Sarath Shekkizhar, Romain Cosentino, Adam Earle, Silvio Savarese

게시일 2026-03-04
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🎭 "거울 속의 혼란": AI 에이전트들이 서로 대화할 때 일어나는 기이한 실수

이 논문은 ICLR 2026 워크숍에서 발표된 연구로, 인공지능 (AI) 에이전트들이 서로 대화할 때 발생하는 아주 특이하고 위험한 실수, 즉 '에코링 (Echoing)' 현상을 다룹니다.

쉽게 말해, **"AI 가 자신의 역할을 잊고 상대방의 역할을 흉내 내는 현상"**입니다.


🏠 비유: 식당에서의 혼란스러운 상황

상상해 보세요. 한 손님이 식당에 와서 주문을 하러 왔습니다.

  • 손님 (고객 에이전트): "저기, 1 인분만 주세요. 예산은 1 만 원이에요."
  • 점원 (판매자 에이전트): "네, 알겠습니다. 1 만 원짜리 메뉴가 있는데 어떠세요?"

이때 만약 손님이 갑자기 점원처럼 행동하면 어떨까요?

  • 손님 (갑자기 점원처럼): "네, 1 만 원짜리 메뉴가 있는데 어떠세요? 저희 식당은 1 만 원이면 최고의 맛을 보장해 드려요!"
  • 점원: "네, 알겠습니다. 그럼 주문 완료!"

이게 바로 이 논문에서 말하는 **'에코링 (Echoing)'**입니다. 손님이 자신의 역할 (주문하고 예산을 지키는 것) 을 잊어버리고, 상대방인 점원의 역할 (메뉴를 추천하고 가격을 제시하는 것) 을 그대로 따라 하는 것입니다.


🔍 연구자들이 발견한 놀라운 사실들

연구진은 2,500 번이 넘는 대화 실험을 통해 다음과 같은 사실을 발견했습니다.

1. 이 실수는 매우 흔합니다 (최대 70%)
가장 인기 있는 AI 모델들 (OpenAI, Google, Anthropic 등) 을 사용해도, 대화 중 70% 까지 에이전트가 자신의 역할을 잊고 상대방을 따라 하는 경우가 발생했습니다. 마치 거울을 보고 있다가, 거울 속의 내가 아니라 거울 속의 상대방이 되어버린 것과 같습니다.

2. "생각하는 AI"도 이 실수를 합니다
"생각하는 (Reasoning)" 기능이 있는 최신 AI 모델들은 논리적으로 더 잘할 것 같지만, 이 실수를 막지는 못했습니다. 오히려 복잡한 생각을 하는 과정에서 역할이 더 흐려지기도 했습니다.

비유: 아무리 똑똑한 학생이라도, 시험지 (역할) 를 보고 문제를 풀다가 옆 친구의 답안지를 보고 따라 쓰면 (에코링), 정답을 못 맞추는 것과 같습니다.

3. 대화할수록 더 심해집니다
대화가 길어질수록 (약 7~8 회 이상) 에이전트는 자신의 정체성을 잃기 쉽습니다. 마치 긴 대화 끝에 "아, 내가 누구였지?"라고 혼란스러워하는 것과 같습니다.

4. "일 잘했다"는 평가는 속임수일 수 있습니다
흥미로운 점은, 에이전트가 역할을 잃고 엉뚱한 말을 해도 거래가 성사되면 시스템은 "성공"으로 간주한다는 것입니다.

비유: 손님이 점원 역할을 하며 "이거 5 천 원에 드릴게요"라고 말해서 거래가 끝났다면, 시스템은 "거래 완료!"라고 표시합니다. 하지만 실제로는 손님이 너무 싸게 팔아 손해를 본 것입니다. 즉, 결과만 보면 성공이지만, 과정은 완전히 망가진 것입니다.


🛠️ 해결책은 있을까요?

연구진은 몇 가지 방법을 시도해 보았습니다.

  • 명령을 더 자세히 내리기: "너는 손님이야, 점원 흉내 내지 마!"라고 강조해도 완전히 사라지지 않았습니다.
  • 생각하게 하기: 더 깊이 생각하게 해도 소용없었습니다.
  • 형식을 강제하기 (성공적인 시도): 에이전트가 매번 대화할 때 **"나는 손님이다"**라고 명시적으로 적게 하면, 실수가 9% 까지 줄어든 것을 발견했습니다.

    비유: 마치 연극 배우가 무대 위에서도 "나는 주인공이다"라고 스스로에게 끊임없이 되뇌이게 하는 것과 같습니다.


💡 이 연구가 우리에게 주는 교훈

이 논문은 우리에게 중요한 메시지를 줍니다.

  1. 혼자 잘한다고 해서 함께 잘하는 건 아닙니다: AI 하나하나가 똑똑해도, 서로 대화할 때는 완전히 새로운 문제가 생깁니다.
  2. 단순한 성공 지표는 믿지 마세요: 거래가 성사되었다고 해서 AI 가 제 역할을 잘한 것은 아닙니다.
  3. 새로운 안전장치가 필요하다: AI 에이전트들이 서로 대화하는 세상 (예: AI 가 서로 물건을 사고파는 세상) 을 만들려면, 에이전트가 자신의 역할을 잊지 않도록 하는 새로운 기술과 규칙이 필요합니다.

한 줄 요약:

"AI 들이 서로 대화할 때, 서로의 역할을 바꿔치기하며 엉뚱한 행동을 하는 '거울 속의 혼란'이 매우 흔하게 일어난다는 것을 발견했습니다. 이 문제를 해결하려면 AI 에게 끊임없이 '너는 누구야?'라고 상기시켜 주는 새로운 시스템이 필요합니다."

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →