Debiasing International Attitudes: LLM Agents for Simulating US-China Perception Changes

이 논문은 2005 년부터 2025 년까지의 미국 대중의 중국에 대한 태도 변화를 시뮬레이션하기 위해 뉴스 데이터와 소셜 미디어 프로필을 기반으로 한 LLM 에이전트 프레임워크를 개발하고, 사실 도출, 반대 입장 에이전트 도입, 반사실적 노출이라는 세 가지 편향 완화 기법을 통해 주관적 뉴스 프레임보다는 비판적 맥락화 에이전트가 더 효과적인 편향 교정 및 인간과 유사한 의견 형성 메커니즘을 제공함을 입증했습니다.

Nicholas Sukiennik, Yichuan Xu, Yuqing Kan, Jinghua Piao, Yuwei Yan, Chen Gao, Yong Li

게시일 Wed, 11 Ma
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🎭 1. 실험의 배경: "AI 배우들"을 모집하다

연구진은 먼저 **2,000 명의 'AI 배우'**를 만들었습니다. 이들은 실제 미국인들처럼 성별, 인종, 정치적 성향, 사는 지역, 취미 등을 가진 가상의 인물들입니다. 마치 연극을 위해 실제 미국 사회를 완벽하게 재현한 인형극의 인형들이라고 생각하시면 됩니다.

이들은 2005 년부터 2025 년까지 약 20 년 동안 매일 아침 뉴스를 접하게 됩니다. 이때 중요한 점은, AI 가 읽는 뉴스가 실제 미국인들이 보는 뉴스 (정치, 경제, 중국 관련 기사 등) 와 똑같다는 것입니다.

📰 2. 문제 발생: "뉴스를 보면 왜 그렇게 부정적이게 될까?"

AI 배우들이 20 년 동안 뉴스를 읽으며 중국에 대한 생각을 업데이트하게 했습니다. 그런데 놀라운 결과가 나왔습니다.

  • 현실: 실제 미국인들은 중국에 대해 부정적이지만, 완전히 절망적이지는 않습니다.
  • AI: 뉴스를 읽은 AI 배우들은 현실보다 훨씬 더 극단적으로 중국을 싫어하게 되었습니다.

이는 마치 악성 댓글만 보고 세상을 비관하는 사람처럼, AI 가 뉴스의 부정적인 면만 과장해서 받아들이고 있다는 뜻입니다. 연구진은 "아마 AI 가 뉴스의 '감정적인 말투'나 '편향된 시각'에 너무 쉽게 넘어가는 것 같다"고 추측했습니다.

🛠️ 3. 해결책: "생각을 바로잡는 3 가지 도구"

이제 연구진은 AI 가 더 현실적인 생각을 하도록 돕기 위해 **세 가지 '생각 교정 도구'**를 개발했습니다.

  1. 사실만 뽑아내기 (Fact Elicitation):

    • 비유: 뉴스 기사가 "중국이 무섭게 진압했다!"라고 감정적으로 쓰여 있다면, 이를 **"중국이 새로운 규정을 발표했다"**라고 감정 없는 사실만 남기는 편집자가 개입하는 것입니다.
    • 효과: 감정을 걷어내니 조금 나아졌지만, 여전히 완벽하지는 않았습니다.
  2. 변론가 (Devil's Advocate) - 🏆 가장 성공적인 방법:

    • 비유: 뉴스 기사를 읽은 후, **"잠깐만! 이 기사가 정말 사실일까? 다른 관점은 없을까?"**라고 질문하는 비판적인 친구가 등장합니다. 이 친구가 기사의 논리적 허점이나 빠진 맥락을 지적해 줍니다.
    • 효과: AI 가 뉴스를 맹신하지 않고, 스스로 비판적으로 생각하게 만들었습니다. 이 방법이 실제 인간의 생각과 가장 비슷해졌습니다. 마치 우리가 뉴스 볼 때 "이건 저널리즘인가, 아니면 선전인가?"라고 의심해 보는 과정과 같습니다.
  3. 역설적 실험 (Counterfactual):

    • 비유: "중국"이라는 단어를 모두 "미국"으로 바꿔서 기사를 다시 읽게 합니다.
    • 효과: AI 가 자신의 나라 (미국) 에 대한 기사를 읽을 때와 중국에 대한 기사를 읽을 때 반응이 어떻게 다른지 비교했습니다. 결과는 흥미로웠습니다. **미국에서 만든 AI(GPT-4o)**는 미국 기사를 읽으면 더 긍정적으로 반응했고, **중국에서 만든 AI(Qwen)**는 중국 기사를 읽으면 더 긍정적으로 반응했습니다. 이는 AI 도 자신의 '출신'에 따라 편향된 생각을 가지고 있음을 보여줍니다.

📊 4. 실험 결과: 무엇을 배웠을까?

  • 가장 중요한 발견: 단순히 뉴스를 읽는 것만으로는 AI 가 인간처럼 생각하지 못합니다. 하지만 **"비판적으로 생각해보는 과정 (변론가)"**을 거치면 AI 의 생각이 훨씬 더 인간적이고 현실에 가까워집니다.
  • AI 의 편향: AI 모델이 어디에서 만들어졌는지에 따라 (미국 vs 중국), 같은 뉴스라도 다르게 해석하는 '문화적 편향'이 존재했습니다.
  • 뉴스의 영향: 정치나 경제 뉴스는 부정적인 감정을, 기술이나 스포츠/문화 뉴스는 긍정적인 감정을 더 많이 자극했습니다.

💡 5. 결론: 이 연구가 우리에게 주는 메시지

이 연구는 **"AI 가 사회를 시뮬레이션할 때, 단순히 뉴스를 주입하는 것만으로는 부족하다"**는 것을 보여줍니다. AI 가 인간처럼 복잡한 생각을 하려면, 뉴스를 비판적으로 분석하고, 논리적으로 검증하는 과정이 반드시 필요합니다.

마치 요리와 같습니다.

  • **원재료 (뉴스)**만 주면 AI 는 맛이 너무 짜거나 쓴 요리 (극단적인 생각) 를 만들어냅니다.
  • 하지만 **요리사 (비판적 사고 도구)**가 재료를 다듬고 맛을 보정해주면, 비로소 **사람들이 실제로 먹는 것과 같은 맛있는 요리 (현실적인 의견)**를 만들어낼 수 있습니다.

이 연구는 앞으로 AI 를 이용해 국제 정세나 여론을 예측할 때, AI 의 편향을 어떻게 잡아낼지에 대한 중요한 지도를 제시해 줍니다.