Each language version is independently generated for its own context, not a direct translation.
🧩 1. 문제의 시작: "AI 를 인간처럼 대하면 안 됩니다"
과거에는 연구자들이 실험을 할 때, AI 에이전트들을 단순히 "인간을 대신하는 로봇"으로 여겼습니다. 마치 인형극에서 인형이 배우를 대신하는 것처럼요. "인간이 이렇게 답하면 AI 도 똑같이 답해야 한다"는 전제하에 실험을 재현했습니다.
하지만 저자들은 이렇게 말합니다: "잠깐만요! AI 는 인간이 아니잖아요?"
- 인간: 살아있는 몸, 경험, 감정, 기억이 있습니다.
- AI: 거대한 데이터로 훈련된 모델, 프롬프트 (명령어), 알고리즘으로 작동합니다.
이 둘을 똑같이 취급하면, "AI 가 인간과 다르게 행동했다"는 결과가 나왔을 때 "AI 가 이상한가?" 아니면 **"우리가 실험을 잘못 설계했는가?"**를 구분할 수 없게 됩니다.
🌉 2. 해결책: NormCoRe(노르코어) - "번역가"의 역할
저자들은 이 문제를 해결하기 위해 NormCoRe라는 새로운 방법을 제안합니다. 이 방법은 실험을 단순히 '복제'하는 것이 아니라, **인간의 실험을 AI 의 언어로 '번역'**하는 과정으로 봅니다.
이를 **4 단계의 다리 (Layer)**로 비유할 수 있습니다.
- 두뇌 (Cognitive Layer):
- 인간: 실제 뇌와 경험.
- AI: 어떤 **기반 모델 (LLM)**을 썼는가? (예: 구글 모델 vs 중국 모델).
- 비유: 같은 요리 레시피라도, 요리사 (모델) 가 누구냐에 따라 맛이 달라집니다.
- 개성 (Ontological Layer):
- 인간: 고유한 성격과 기억.
- AI: 어떤 **성격 설정 (프롬프트)**을 줬는가? (예: "너는 대학생이야"라고 영어로 했을 때 vs 중국어로 했을 때).
- 비유: 같은 배우라도 **역할극 대본 (언어/설정)**이 다르면 연기 방식이 완전히 바뀝니다.
- 대화 (Interaction Layer):
- 인간: 자연스럽게 대화하고 설득함.
- AI: 누가 언제 말하고, 어떻게 순서를 지키는지 **규칙 (프로토콜)**을 어떻게 정했는가?
- 비유: 토론에서 **진행자 (규칙)**가 누구냐에 따라 결론이 달라질 수 있습니다.
- 작업 (Intervention Layer):
- 인간: 실험자가 주는 과제.
- AI: AI 가 어떤 작업 흐름으로 문제를 해결하게 했는가?
- 비유: 같은 미션을 주더라도, 작업 도구가 다르면 결과물이 다릅니다.
핵심 메시지: "AI 가 인간과 다르게 행동했다"고 해서 AI 가 틀린 게 아니라, 우리가 **번역 (설계)**할 때 어떤 선택을 했는지에 따라 결과가 달라진다는 것을 명확히 기록해야 합니다.
🏛️ 3. 실제 실험: "무지의 베일"로 공정성을 테스트하다
저자들은 이 방법을 검증하기 위해 유명한 실험을 AI 로 재현했습니다.
- 실험 내용: "무지의 베일 (Veil of Ignorance)"이라는 개념입니다. "내가 태어날 때 부자가 될지 가난할지, 어떤 직업을 가질지 모른다면, 어떤 사회 규칙이 가장 공정하다고 생각하나요?"라고 묻는 것입니다.
- 인간 실험 결과: 사람들은 "가장 가난한 사람의 최소 소득을 보장하면서 전체 소득을 늘리는 규칙"을 선호했습니다.
- AI 실험 결과:
- 공통점: AI 들도 인간과 비슷하게 그 규칙을 선호했습니다.
- 차이점: AI 들은 인간보다 훨씬 더 빠르게, 더 강력하게 그 규칙에 합의했습니다. (인간은 의견이 분분했지만, AI 는 금방 결론이 났습니다.)
- 중요한 발견: AI 가 어떤 모델을 썼는지, 그리고 어떤 언어로 지시를 내렸는지에 따라 합의의 속도와 결과가 크게 달라졌습니다. (예: 영어로 지시받은 AI 와 스페인어로 지시받은 AI 는 합의 과정이 달랐습니다.)
💡 4. 이 연구가 우리에게 주는 교훈
이 논문은 우리에게 다음과 같은 중요한 메시지를 줍니다.
- AI 는 단순한 도구가 아닙니다: AI 를 인간 대신 일하게 할 때, 우리가 어떤 모델과 언어를 선택하느냐에 따라 사회적 규칙 (공정성 등) 이 달라질 수 있습니다.
- 설계자의 책임: AI 시스템을 설계할 때, "어떤 모델을 썼는지", "어떤 언어로 프롬프트를 썼는지"를 투명하게 기록해야 합니다. 그래야만 결과가 왜 나왔는지 이해할 수 있습니다.
- 새로운 관점: 우리는 AI 를 인간과 똑같아지도록 '맞추는 (Alignment)' 것만 생각하지 말고, AI 고유의 특성이 어떻게 사회적 규범을 형성하는지 연구해야 합니다.
🎯 요약 (한 줄 정리)
"AI 를 인간 실험에 쓸 때는, 단순히 '복사 - 붙여넣기'를 하지 말고, AI 의 특성을 고려해 실험을 '번역'해야 합니다. 우리가 선택한 번역 도구 (모델, 언어) 가 바로 AI 가 만드는 사회의 규칙을 결정합니다."
이 연구는 앞으로 AI 가 우리 사회의 중요한 결정 (자원 배분, 자율주행 등) 을 내릴 때, 그 결정이 어떻게 이루어지는지 투명하고 과학적으로 분석할 수 있는 나침반이 되어줍니다.