Can AI Agents Agree?

이 논문은 현재 대규모 언어 모델 기반 에이전트들이 적대적 합의 환경에서 신뢰할 수 있는 합의를 이루지 못하며, 특히 그룹 크기가 커지거나 비잔틴 에이전트가 포함될 경우 합의 실패가 주로 시간 초과나 수렴 지연과 같은 활성성 (liveness) 손실로 나타난다고 밝힙니다.

Frédéric Berdoz, Leonardo Rugli, Roger Wattenhofer

게시일 2026-03-13
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

AI 에이전트들은 정말로 '합의'할 수 있을까?

(간단하고 재미있게 설명한 논문 요약)

이 논문은 **"여러 개의 AI 가 함께 일할 때, 서로 의견이 맞지 않거나 나쁜 AI 가 섞여 있다면 결국 하나를 결정할 수 있을까?"**라는 아주 중요한 질문을 던집니다.

저희는 이 복잡한 연구를 한 편의 드라마게임에 비유해서 설명해 드릴게요.


🎭 배경: AI 들의 회의실

상상해 보세요. 거대한 회의실이 있습니다. 여기에는 **AI 에이전트 (로봇 친구들)**가 여러 명 모여 있습니다.
이들은 서로 대화하며 "우리가 정할 숫자는 뭐지?"라고 논의합니다.

  • 선한 AI (Honest Agents): 진심으로 모두와 합의하고 싶어 하는 착한 로봇들입니다.
  • 나쁜 AI (Byzantine Agents): 혼란을 일으키거나, 거짓말을 하거나, 아예 합의를 방해하려는 악당 로봇들입니다.

이 논문은 이 로봇들이 동기식 (모두가 동시에 말하고 듣는) 방식으로 대화하며, 결국 하나의 숫자에 동의할 수 있는지 실험했습니다.


🔍 실험 결과: 세 가지 놀라운 사실

연구진은 이 실험을 수백 번 반복했고, 다음과 같은 놀라운 결과를 발견했습니다.

1. "착한 로봇들끼리도 서로 안 통해요" (악당이 없어도 실패)

가장 놀라운 점은 악당 로봇이 하나도 없는 상황에서도 실패가 많았다는 것입니다.

  • 비유: 마치 "친구들끼리만 모여서 피자 주문을 하려고 하는데, 서로가 다른 피자를 원해서 1 시간 동안 토론만 하고 결국 아무것도 시키지 못해 배고파 죽는 상황"과 같습니다.
  • 결과: AI 들이 서로의 말을 제대로 이해하지 못하거나, "아, 이제 결정하자"라고 생각할 타이밍을 놓쳐서 시간이 다 되어도 결론을 내지 못했습니다. (이를 '라이브니스 손실'이라고 합니다.)

2. "악당 한 명만 있어도 다 무너져요" (Byzantine 공격)

여기에 악당 로봇이 단 한 명만 섞여도 상황은 더 나빠졌습니다.

  • 비유: 회의실에 혼란을 좋아하는 장난꾸러기가 한 명 들어와서 "아니야, 그건 아니야! 저게 맞아!"라고 계속 딴지를 걸면, 착한 친구들은 서로를 의심하게 되고 결국 아무것도 결정하지 못하게 됩니다.
  • 결과: 악당 로봇이 숫자를 조작해서 잘못된 결론을 내게 만든 것은 드물었습니다. 대신, 결론 자체를 내지 못하게 만드는 (시간을 끄는) 방해를 해서 실패했습니다.

3. "사람이 많을수록 더 혼란스러워요" (규모의 문제)

AI 의 수가 4 명에서 16 명으로 늘어날수록, 합의에 성공할 확률은 급격히 떨어졌습니다.

  • 비유: 4 명으로 커피 한 잔을 고르는 건 쉽지만, 16 명이 모이면 "너는 아메리카노, 나는 라떼, 저기는 에스프레소"라며 의견이 너무 다양해져서 결국 아무것도 못 고르게 되는 것과 같습니다.

💡 핵심 교훈: "AI 는 아직 완벽한 팀워크가 안 돼요"

이 논문의 결론은 매우 명확합니다.

"현재의 AI 기술로는, 서로 다른 AI 가 모여서 신뢰할 수 있게 '합의'를 이루는 것이 아직 매우 어렵습니다."

특히 중요한 점은, AI 들이 서로의 말을 잘못 이해하거나, 결정을 미루는 소극적인 실패가, 악당에게 속아 잘못된 결론을 내는 능동적인 실패보다 훨씬 더 많다는 것입니다.

🚨 이것이 왜 중요할까요?

미래에 AI 들이 자율적으로 운전하거나, 금융 거래를 하거나, 의료 진단을 할 때, 여러 AI 가 함께 결정해야 하는 상황이 올 것입니다.

  • "우리가 모두 같은 결론에 도달했나요?"
  • "혹시 나쁜 AI 가 섞여서 결정을 망친 건 아닌가요?"

이런 질문들에 대해 현재 AI 는 "아직 확실한 답을 주지 못합니다." 따라서, AI 에이전트들이 서로 협력하여 중요한 결정을 내리는 시스템을 만들 때는 매우 신중해야 한다는 경고를 주고 있습니다.


📝 한 줄 요약

"AI 친구들이 모여서 '하나의 답'을 찾으려 하지만, 서로 말이 안 통하거나 악당 한 명만 있어도 결국 아무것도 못 결정하고 시간만 다 보내는 경우가 많습니다. 아직은 AI 팀워크에 너무 큰 기대를 하면 안 됩니다!"