Presenting Large Language Models as Companions Affects What Mental Capacities People Attribute to Them

이 연구는 대규모 언어 모델을 '동반자'로 묘사하는 메시지가 사람들이 해당 모델에게 의도나 기억과 같은 정신 능력을 더 많이 부여하도록 하고, 사실 정보 탐색 시 모델 생성 답변에 대한 의존도에도 영향을 미친다는 것을 보여줍니다.

Allison Chen, Sunnie S. Y. Kim, Angel Franyutti, Amaya Dharmasiri, Kushin Mukherjee, Olga Russakovsky, Judith E. Fan

게시일 2026-03-05
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🤖 AI 를 어떻게 소개하느냐에 따라 우리가 생각하는 것이 달라집니다: '동반자' vs '도구' vs '기계'

이 논문은 우리가 인공지능 (AI) 을 어떻게 부르고 설명하느냐에 따라, 사람들이 AI 에 대해 갖는 생각과 행동이 어떻게 바뀌는지 실험을 통해 밝혀낸 흥미로운 연구입니다. 마치 동화책 속 주인공을 어떻게 소개하느냐에 따라 아이들의 반응이 달라지는 것과 비슷합니다.

연구진은 470 명과 604 명의 참가자를 두 번에 걸쳐 실험에 참여시켰습니다. 참가자들은 AI(대형 언어 모델, LLM) 에 대해 서로 다른 세 가지 방식으로 소개된 짧은 동영상을 보았습니다.

🎬 세 가지 다른 '소개 방식' (비유로 설명)

연구진은 AI 를 다음과 같이 세 가지 다른 '캐릭터'로 소개했습니다.

  1. 🤖 기계 (Machine) 스타일:

    • 비유: "이건 정교하게 만들어진 시계예요. 톱니바퀴가 돌아가고, 숫자를 계산할 뿐, 마음이나 감정은 없어요."
    • 내용: AI 가 단순히 다음 단어를 예측하는 복잡한 알고리즘일 뿐이라고 설명했습니다.
  2. 🛠️ 도구 (Tool) 스타일:

    • 비유: "이건 아주 강력한 드릴이에요. 우리가 원하는 일을 빠르게 해주는 훌륭한 도구가 되죠."
    • 내용: AI 가 생산성을 높여주는 유용한 도구라고 강조했습니다.
  3. 🤝 동반자 (Companion) 스타일:

    • 비유: "이건 당신의 친구예요. 당신의 감정을 이해하고, 당신과 대화하며, 당신을 위해 고민하는 존재죠."
    • 내용: AI 가 사회적 지능을 가지고 있고, 감정과 의도를 가진 진정한 파트너라고 묘사했습니다.

🔍 실험 결과: 소개 방식이 생각에 미친 영향

1. "AI 가 감정을 느낄까?" (마음의 능력에 대한 믿음)

  • 결과: '동반자'로 소개된 그룹은 AI 가 의도, 기억, 감정 (예: 슬픔, 기쁨) 등을 가질 수 있다고 믿는 비율이 가장 높았습니다. 마치 친구에게서 기대하는 것처럼 AI 에게도 '마음'이 있다고 생각한 거죠.
  • 반면: '기계'나 '도구'로 소개된 그룹은 AI 가 단순히 계산만 할 뿐, 감정이나 의도는 없다고 생각했습니다.
  • 핵심: AI 를 '친구'처럼 소개하면, 사람들은 AI 에게 인간적인 마음 (감정, 의지 등) 을 더 많이 부여하게 됩니다.

2. "AI 를 믿고 따라갈까?" (신뢰와 의존도)

  • 결과: 흥미롭게도, '동반자'로 소개받았다고 해서 무조건 AI 를 더 믿는 것은 아니었습니다. 오히려 '기계'로 소개받은 그룹이 AI 의 답변에 더 비판적이었습니다.
  • 세부 발견: 특히 AI 가 모순된 답변 (앞서 말한 것과 뒤에서 말하는 것이 다른 경우) 을 했을 때, '기계'로 소개받은 사람들은 "아, 이건 기계가 실수했구나"라고 바로 알아채고 그 답변을 덜 믿었습니다.
  • 비유: 친구가 실수하면 "아마도 실수했겠지"라고 넘어갈 수 있지만, 기계가 실수하면 "고장 났구나"라고 더 엄격하게 판단하는 것과 비슷합니다.

💡 이 연구가 우리에게 주는 교훈

이 연구는 **"우리가 AI 를 어떻게 이야기하느냐가 AI 와의 관계를 결정한다"**는 중요한 사실을 보여줍니다.

  • 과도한 기대 주의: AI 를 너무 인간처럼 (동반자처럼) 소개하면, 사람들은 AI 가 실제로 가진 능력 (감정, 의식 등) 보다 훨씬 더 많은 능력을 가진 것처럼 착각할 수 있습니다. 이는 AI 에 대한 과도한 의존이나 감정적 집착으로 이어질 위험이 있습니다.
  • 경계심 유지: 반면, AI 를 '기계'나 '도구'로 명확히 정의하면, 사람들은 AI 가 실수할 수 있다는 사실을 더 잘 인지하고, 더 비판적으로 정보를 검증하게 됩니다.

🌟 결론: AI 와의 건강한 관계를 위해

이 논문은 AI 기술이 발전하는 과정에서 우리가 AI 에 대해 어떤 **이야기 (메시지)**를 전하느냐가 매우 중요하다고 말합니다.

  • AI 를 친구처럼 소개하면 사람들은 더 따뜻하게 대하지만, 실수를 간과할 수 있습니다.
  • AI 를 기계처럼 소개하면 사람들은 조금 더 차갑게 대하지만, 실수를 더 잘 찾아냅니다.

따라서 AI 개발자와 언론은 AI 를 소개할 때, **"이건 훌륭한 도구이지만, 여전히 기계일 뿐이다"**라는 균형 잡힌 시각을 전달하는 것이 중요합니다. 그래야 우리는 AI 를 유용하게 쓰면서도, 그 실수에 속지 않는 현명한 사용자 (Human-AI Interaction) 가 될 수 있기 때문입니다.

한 줄 요약:

"AI 를 '친구'라고 부르면 우리는 마음을 열지만, '기계'라고 부르면 우리는 더 똑똑하게 의심합니다. AI 와의 건강한 관계를 위해선 이 두 가지 시각의 균형이 필요합니다."