Dynamic Theory of Mind as a Temporal Memory Problem: Evidence from Large Language Models

이 논문은 대규모 언어 모델 (LLM) 이 고전적인 거짓 믿음 추론은 수행하지만, 시간이 지남에 따라 신념을 추적하고 업데이트된 후의 이전 상태를 기억하는 동적 이론적 마음 (Dynamic ToM) 능력에서는 일관된 결함을 보인다는 것을 제시하며, 이를 시간적 기억 및 간섭 문제의 관점에서 분석합니다.

Thuy Ngoc Nguyen, Duy Nhat Phan, Cleotilde Gonzalez

게시일 2026-03-17
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"인공지능 (AI) 이 사람의 마음을 읽는 능력 (심리 이론, Theory of Mind) 을 얼마나 잘 가지고 있는지"**를 새로운 방식으로 테스트한 연구입니다.

기존의 테스트들은 AI 가 "지금 이 순간 상대방이 무엇을 생각하고 있는가?"를 묻는 정지된 사진 같은 방식이었습니다. 하지만 실제 인간 관계에서는 시간이 흐르며 생각이 바뀌고, 과거의 기억과 현재의 정보가 섞이게 되죠. 이 연구는 AI 가 **"시간이 흐르는 동안 상대방의 생각이 어떻게 변해왔는지"**를 기억하고 추적할 수 있는지 확인했습니다.

이 내용을 일상적인 비유로 쉽게 설명해 드릴게요.


🕵️‍♂️ 핵심 비유: "기억력 좋은 친구 vs. 최신 뉴스만 믿는 친구"

이 연구는 AI 를 두 가지 친구에 비유할 수 있습니다.

  1. 기존의 AI (정지된 사진): "지금은 뭐라고 생각하니?"라고 물으면 아주 잘 대답합니다. 하지만 "그런데 5 분 전에는 뭐라고 생각했어?"라고 물으면, **"아, 5 분 전이라니? 그건 기억 안 나. 지금 내가 생각한 게 맞지!"**라고 대답하며 과거를 잊어버립니다.
  2. 이 연구가 발견한 사실: AI 는 현재의 생각은 잘 파악하지만, 정보가 바뀌었을 때의 과거 생각을 기억해 내는 데는 매우 서툴다는 것입니다. 마치 최신 뉴스만 믿고, 어제 있었던 일을 완전히 잊어버린 사람과 같습니다.

📝 연구는 어떻게 진행되었나요? (DToM-Track)

연구진은 DToM-Track이라는 새로운 테스트 도구를 만들었습니다. 이를 **'시간 여행하는 대화'**라고 상상해 보세요.

  • 상황: 두 명의 AI 가 대화를 나눕니다.
  • 비밀: 한 AI 는 속으로 "나는 A 라고 믿어"라고 생각하지만, 입 밖으로는 말하지 않습니다.
  • 변화: 대화 중간에 새로운 정보가 들어오면, 그 AI 는 생각을 바꿉니다. "아, 아니야! 사실은 B 였어!"라고 생각을 수정합니다.
  • 테스트: 연구진은 다른 AI 에게 질문합니다.
    • "지금 그 친구는 뭐라고 생각하니?" (현재 기억)
    • "그 친구가 생각을 바꾸기 에 뭐라고 믿었지?" (과거 기억)
    • "그 친구가 언제 생각을 바꿨지?" (변화 시점)

📉 결과는 어땠나요? (가장 중요한 발견)

결과가 아주 흥미롭습니다. 모든 AI 모델 (거대하고 똑똑한 모델일수록) 에서 동일한 패턴이 나타났습니다.

  1. 현재는 완벽함: "지금 뭐라고 생각하니?"라는 질문에는 60~70% 이상을 맞췄습니다.
  2. 과거는 망각: "변화하기 전엔 뭐라고 믿었니?"라는 질문에는 20~30% 수준으로 급격히 떨어졌습니다. (거의 무작위 추측 수준)
  3. 원인: 이는 인간의 뇌에서도 나타나는 '최근성 편향 (Recency Bias)' 때문입니다. 뇌는 가장 최근에 들어온 정보를 가장 강하게 기억하고, 그 정보가 이전 정보를 덮어씌워 (간섭 효과) 잊게 만듭니다. AI 도 똑같은 현상을 보인 것입니다.

💡 이 연구가 왜 중요한가요?

기존에는 AI 가 "거짓 믿음 (False Belief)" 테스트를 잘 통과하면 "AI 는 사람의 마음을 읽는다"고 생각했습니다. 하지만 이 연구는 **"그건 단순히 현재 상황을 읽는 것일 뿐, 시간이 흐르는 복잡한 관계를 이해하는 건 아니다"**라고 말합니다.

  • 실생활 예시: 당신이 친구에게 "내일 비가 올 거야"라고 말했는데, 친구가 "아니, 내일 맑을 거야"라고 말하면, AI 는 친구가 '맑을 거야'라고 믿는다는 건 알 수 있습니다. 하지만 **"아까는 비가 온다고 믿었지?"**라고 물으면 AI 는 그걸 기억하지 못합니다.
  • 의미: 진정한 인간형 AI 를 만들려면, 단순히 '지금의 마음'을 읽는 것을 넘어, 시간이 흐르며 변하는 마음의 흐름을 기억하고 추적할 수 있어야 합니다.

🎯 결론

이 논문은 **"AI 가 사람의 마음을 읽는 능력은, 과거의 기억을 잊지 않고 현재와 연결하는 '시간의 기억' 문제"**임을 증명했습니다.

지금의 AI 는 최신 뉴스만 믿는 친구처럼 행동합니다. 우리가 더 똑똑한 AI 를 원한다면, 과거의 기억과 현재의 정보를 동시에 잘 다룰 수 있도록 '기억력'을 훈련시켜야 한다는 교훈을 줍니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →