Normative Common Ground Replication (NormCoRe): Replication-by-Translation for Studying Norms in Multi-agent AI

이 논문은 인간 실험 설계를 다중 에이전트 AI 환경으로 체계적으로 번역하는 '규범적 공통 기반 복제 (NormCoRe)' 방법론을 제안하여, AI 에이전트 간 규범 형성 역학을 인간 기준과 비교 분석할 수 있는 새로운 틀을 마련합니다.

Luca Deck, Simeon Allmendinger, Lucas Müller, Niklas Kühl

게시일 2026-03-13
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🧩 1. 문제의 시작: "AI 를 인간처럼 대하면 안 됩니다"

과거에는 연구자들이 실험을 할 때, AI 에이전트들을 단순히 "인간을 대신하는 로봇"으로 여겼습니다. 마치 인형극에서 인형이 배우를 대신하는 것처럼요. "인간이 이렇게 답하면 AI 도 똑같이 답해야 한다"는 전제하에 실험을 재현했습니다.

하지만 저자들은 이렇게 말합니다: "잠깐만요! AI 는 인간이 아니잖아요?"

  • 인간: 살아있는 몸, 경험, 감정, 기억이 있습니다.
  • AI: 거대한 데이터로 훈련된 모델, 프롬프트 (명령어), 알고리즘으로 작동합니다.

이 둘을 똑같이 취급하면, "AI 가 인간과 다르게 행동했다"는 결과가 나왔을 때 "AI 가 이상한가?" 아니면 **"우리가 실험을 잘못 설계했는가?"**를 구분할 수 없게 됩니다.

🌉 2. 해결책: NormCoRe(노르코어) - "번역가"의 역할

저자들은 이 문제를 해결하기 위해 NormCoRe라는 새로운 방법을 제안합니다. 이 방법은 실험을 단순히 '복제'하는 것이 아니라, **인간의 실험을 AI 의 언어로 '번역'**하는 과정으로 봅니다.

이를 **4 단계의 다리 (Layer)**로 비유할 수 있습니다.

  1. 두뇌 (Cognitive Layer):
    • 인간: 실제 뇌와 경험.
    • AI: 어떤 **기반 모델 (LLM)**을 썼는가? (예: 구글 모델 vs 중국 모델).
    • 비유: 같은 요리 레시피라도, 요리사 (모델) 가 누구냐에 따라 맛이 달라집니다.
  2. 개성 (Ontological Layer):
    • 인간: 고유한 성격과 기억.
    • AI: 어떤 **성격 설정 (프롬프트)**을 줬는가? (예: "너는 대학생이야"라고 영어로 했을 때 vs 중국어로 했을 때).
    • 비유: 같은 배우라도 **역할극 대본 (언어/설정)**이 다르면 연기 방식이 완전히 바뀝니다.
  3. 대화 (Interaction Layer):
    • 인간: 자연스럽게 대화하고 설득함.
    • AI: 누가 언제 말하고, 어떻게 순서를 지키는지 **규칙 (프로토콜)**을 어떻게 정했는가?
    • 비유: 토론에서 **진행자 (규칙)**가 누구냐에 따라 결론이 달라질 수 있습니다.
  4. 작업 (Intervention Layer):
    • 인간: 실험자가 주는 과제.
    • AI: AI 가 어떤 작업 흐름으로 문제를 해결하게 했는가?
    • 비유: 같은 미션을 주더라도, 작업 도구가 다르면 결과물이 다릅니다.

핵심 메시지: "AI 가 인간과 다르게 행동했다"고 해서 AI 가 틀린 게 아니라, 우리가 **번역 (설계)**할 때 어떤 선택을 했는지에 따라 결과가 달라진다는 것을 명확히 기록해야 합니다.

🏛️ 3. 실제 실험: "무지의 베일"로 공정성을 테스트하다

저자들은 이 방법을 검증하기 위해 유명한 실험을 AI 로 재현했습니다.

  • 실험 내용: "무지의 베일 (Veil of Ignorance)"이라는 개념입니다. "내가 태어날 때 부자가 될지 가난할지, 어떤 직업을 가질지 모른다면, 어떤 사회 규칙이 가장 공정하다고 생각하나요?"라고 묻는 것입니다.
  • 인간 실험 결과: 사람들은 "가장 가난한 사람의 최소 소득을 보장하면서 전체 소득을 늘리는 규칙"을 선호했습니다.
  • AI 실험 결과:
    1. 공통점: AI 들도 인간과 비슷하게 그 규칙을 선호했습니다.
    2. 차이점: AI 들은 인간보다 훨씬 더 빠르게, 더 강력하게 그 규칙에 합의했습니다. (인간은 의견이 분분했지만, AI 는 금방 결론이 났습니다.)
    3. 중요한 발견: AI 가 어떤 모델을 썼는지, 그리고 어떤 언어로 지시를 내렸는지에 따라 합의의 속도와 결과가 크게 달라졌습니다. (예: 영어로 지시받은 AI 와 스페인어로 지시받은 AI 는 합의 과정이 달랐습니다.)

💡 4. 이 연구가 우리에게 주는 교훈

이 논문은 우리에게 다음과 같은 중요한 메시지를 줍니다.

  • AI 는 단순한 도구가 아닙니다: AI 를 인간 대신 일하게 할 때, 우리가 어떤 모델과 언어를 선택하느냐에 따라 사회적 규칙 (공정성 등) 이 달라질 수 있습니다.
  • 설계자의 책임: AI 시스템을 설계할 때, "어떤 모델을 썼는지", "어떤 언어로 프롬프트를 썼는지"를 투명하게 기록해야 합니다. 그래야만 결과가 왜 나왔는지 이해할 수 있습니다.
  • 새로운 관점: 우리는 AI 를 인간과 똑같아지도록 '맞추는 (Alignment)' 것만 생각하지 말고, AI 고유의 특성이 어떻게 사회적 규범을 형성하는지 연구해야 합니다.

🎯 요약 (한 줄 정리)

"AI 를 인간 실험에 쓸 때는, 단순히 '복사 - 붙여넣기'를 하지 말고, AI 의 특성을 고려해 실험을 '번역'해야 합니다. 우리가 선택한 번역 도구 (모델, 언어) 가 바로 AI 가 만드는 사회의 규칙을 결정합니다."

이 연구는 앞으로 AI 가 우리 사회의 중요한 결정 (자원 배분, 자율주행 등) 을 내릴 때, 그 결정이 어떻게 이루어지는지 투명하고 과학적으로 분석할 수 있는 나침반이 되어줍니다.