How memory can affect collective and cooperative behaviors in an LLM-Based Social Particle Swarm

이 연구는 LLM 기반 사회 입자 군집 시뮬레이션을 통해 모델별 특성 (정렬 및 Big Five 성격) 이 기억 길이에 따른 협력 행동에 결정적인 영향을 미치며, Gemini 는 기억이 길어질수록 협력을 억제하는 반면 Gemma 는 촉진한다는 상반된 경향을 발견하여 생성형 에이전트 기반 모델링에서 LLM 의 고유한 특성이 집단적 사회 행동의 미시적 기저가 됨을 규명했습니다.

Taisei Hishiki, Takaya Arita, Reiji Suzuki

게시일 2026-04-15
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"인공지능 (AI) 친구들이 모여 사는 마을에서, '과거의 기억'이 얼마나 중요할까?"**라는 질문을 던지며 시작합니다.

저희는 두 가지 다른 성격의 AI(거미 2.0 플래시와 젬마 3) 를 이용해, 이들이 서로 협력할지 아니면 배신할지를 실험했습니다. 결과는 매우 흥미로웠습니다. 같은 '기억'을 가지고 있어도, AI 모델에 따라 결과가 정반대로 나왔기 때문입니다.

이 복잡한 연구를 일상적인 비유로 쉽게 설명해 드릴게요.


🏙️ 비유: 두 가지 다른 성격의 AI 마을

상상해 보세요. 두 개의 가상의 마을이 있습니다. 두 마을 모두 100 명의 AI 주민이 살고 있고, 이웃과 만나면 **'협력 (친구)'**을 하거나 **'배신 (이기적)'**을 선택할 수 있습니다.

이 실험의 핵심 변수는 **'기억의 길이'**입니다.

  • 기억 없음: "지금 당장 너는 누구야?"
  • 기억 짧음: "어제 너랑 놀았어."
  • 기억 길음: "지난 3 일 동안 네가 나를 어떻게 대했는지 다 기억해."

1️⃣ 첫 번째 마을: '경계심 많은 AI'(Gemini 2.0 Flash)

이 AI 는 안전하고 조심스러운 성격으로 훈련되었습니다. (실제 사용자를 위해 위험을 피하도록 설계됨)

  • 기억이 없을 때: "모르는 사람이라도 일단 친구가 되어보자!" → 마을 전체가 화려한 협력 파티를 엽니다.
  • 기억이 조금 생길 때: "어제 그 사람이 나를 속였네? 아, 저 사람 조심해야지." → 협력하던 무리가 생겼다 사라졌다를 반복하며 불안해집니다.
  • 기억이 길어질 때: "지난 3 일 동안 저 사람이 나를 속였어! 다들 나쁜 사람이야!" → 과거의 나쁜 기억이 쌓일수록, AI 는 "더 이상 믿을 수 없어!"라고 생각하며 모두가 서로 등을 돌리고 혼자만의 세계로 숨어버립니다.

🔑 핵심: 이 AI 에게는 "기억이 길어질수록 과거의 상처가 커져서, 더 이상 협력할 용기가 없어지는" 효과가 있었습니다.

2️⃣ 두 번째 마을: '직관적이고 솔직한 AI'(Gemma 3:4b)

이 AI 는 개발자를 위해 만들어진 오픈 모델로, 조금 더 직접적이고 덜 경계심이 많습니다.

  • 기억이 없을 때: "누구인지 모르니 일단 의심부터 해보자." → 마을은 혼란스럽고 배신이 많습니다.
  • 기억이 생길 때: "어제 그 사람이 나를 도와줬네? 좋아, 이번엔 나도 도와줘야지." → 작은 친구 그룹이 생기기 시작합니다.
  • 기억이 길어질 때: "지난 3 일 동안 우리가 서로 도와줬어! 우리는 진짜 친구야!" → 과거의 좋은 기억이 쌓일수록, AI 는 "이제 우리는 단단한 팀이야!"라고 생각하며 거대한 협력 무리를 형성합니다.

🔑 핵심: 이 AI 에게는 "기억이 길어질수록 과거의 좋은 경험이 쌓여, 더 큰 신뢰와 협력이 만들어지는" 효과가 있었습니다.


🧐 왜 이런 일이 일어났을까요? (AI 의 '내면' 차이)

연구진은 AI 가 내린 결정의 이유를 분석하기 위해, AI 가 **왜 그렇게 생각했는지 쓴 '일기 (추론 텍스트)'**를 읽었습니다.

  • 경계심 많은 AI(Gemini) 의 일기: "기억을 떠올려 보니, 과거에 나쁜 일들이 많았어. 다시는 속지 말아야 해." (기억 = 위험 신호)
  • 직관적인 AI(Gemma) 의 일기: "기억을 떠올려 보니, 우리가 함께 좋은 시간을 보냈어. 서로 믿고 의지하자." (기억 = 신뢰의 증거)

즉, 동일한 상황 (과거의 상호작용 기록) 을 접했을 때, 두 AI 가 그 기록을 해석하는 방식이 완전히 달랐던 것입니다. 이는 AI 를 만들 때 어떤 데이터를 학습시켰는지, 그리고 어떤 '안전 장치 (Alignment)'를 달았는지에 따라 기억을 바라보는 눈이 달라졌기 때문입니다.


💡 이 연구가 우리에게 주는 교훈

  1. AI 는 기계가 아니라 '성격'이 있다: 같은 프로그램이라도, AI 모델마다 기억을 처리하는 방식과 성격이 다릅니다.
  2. 기억은 양날의 검: 기억이 많다고 해서 무조건 좋은 것도, 나쁜 것도 아닙니다. AI 가 그 기억을 어떻게 해석하느냐에 따라 사회가 화합할 수도, 분열할 수도 있습니다.
  3. 미래의 AI 사회: 앞으로 여러 AI 가 함께 일하는 시스템 (예: 자율주행차 군집, 자동화된 금융 거래 등) 을 만들 때, 단순히 규칙만 정하는 게 아니라 각 AI 가 과거를 어떻게 기억하고 해석하는지를 고려해야 한다는 중요한 경고입니다.

한 줄 요약:

"기억이 길어지면 협력할까, 아니면 불신할까? 정답은 **'그 AI 가 과거를 어떻게 해석하느냐'**에 달려 있습니다. 어떤 AI 는 과거의 상처를 기억해 도망치고, 어떤 AI 는 과거의 우정을 기억해 모입니다."

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →