Addressing Longstanding Challenges in Cognitive Science with Language Models

이 논문은 언어 모델이 인간 주체를 대체하지 않고 보완하는 도구로 신중하게 활용될 때, 인지과학의 연구 통합 및 개념 명확성 등 longstanding 과제를 해결하는 데 기여할 수 있음을 주장합니다.

Dirk U. Wulff, Rui Mata

게시일 2026-03-03
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **인지과학 **(마음과 사고를 연구하는 학문)이 겪어온 오랜 고민들을 해결하기 위해, 최근 급부상한 **거대 언어 모델 **(LLM, 예: ChatGPT 같은 AI)을 어떻게 활용할 수 있는지 제안하는 내용입니다.

핵심 메시지는 "AI 가 인간 연구자를 대체하는 것이 아니라, 인간을 돕는 강력한 '보조 도구'가 되어야 한다"는 것입니다.

이 복잡한 내용을 일상적인 비유로 쉽게 설명해 드리겠습니다.


🧠 인지과학의 현재 상황: "혼란스러운 도서관"

인지과학은 철학, 심리학, 뇌과학, 컴퓨터 과학 등 다양한 분야가 모여 마음을 연구하는 학문입니다. 하지만 문제는 각 분야가 서로 다른 언어로 말하고, 같은 것을 다르게 부르며, 서로의 존재를 모른 채 따로 놀고 있다는 점입니다.

  • **문제 1 **(장벽) 심리학자는 심리학 책만 읽고, 경제학자는 경제학 책만 읽습니다. 서로 연결점이 있는데도 모릅니다.
  • **문제 2 **(모호함) "의지력"이나 "기분" 같은 개념을 설명할 때, 수학 공식처럼 명확하지 않고 말로만 설명해서 검증하기 어렵습니다.
  • **문제 3 **(중복) 같은 개념을 100 가지 다른 이름으로 부르고, 같은 실험 도구를 100 가지 다른 이름으로 만듭니다. (예: '행복'과 '만족'을 다른 것으로 오해하거나, 반대로 같은 것을 다른 이름으로 부르는 실수)
  • **문제 4 **(편향) 실험 대부분이 서구권, 부유층, 교육받은 사람들 (WEIRD) 만 대상으로 해서, 전 세계 모든 사람의 마음을 대표하지 못합니다.

🤖 AI(언어 모델) 의 등장: "초능력을 가진 도서관 사서"

이 논문은 AI 를 이 혼란스러운 도서관을 정리하고, 연구자들을 돕는 초능력을 가진 사서로 소개합니다.

1. 지식 통합: "숨겨진 연결고리를 찾아내는 나침반"

  • 비유: 도서관의 책들이 산처럼 쌓여 있어 어떤 책이 어떤 책과 연결되는지 알기 힘든데, AI 는 모든 책을 한눈에 훑어보고 "이 책과 저 책은 같은 이야기를 하고 있어요!"라고 알려줍니다.
  • 효과: 심리학자와 경제학자가 서로 다른 용어를 쓰더라도, AI 가 "이건 사실 같은 개념이에요"라고 연결해 주어 연구의 단편화를 막고 새로운 통찰을 줍니다.

2. 이론 정교화: "모호한 수필을 수학 공식으로 번역하는 번역기"

  • 비유: 연구자들이 쓴 "의지력이 부족하면 실패한다" 같은 **모호한 수필 **(말)을, AI 가 정확한 컴퓨터 코드나 수학 공식으로 바꿔줍니다.
  • 효과: "의지력"이 정확히 무엇을 의미하는지, 어떤 조건에서 작동하는지 명확하게 정의할 수 있게 되어, 이론을 검증하기 훨씬 쉬워집니다.

3. 측정 도구 정리: "중복된 이름표를 정리하는 정리꾼"

  • 비유: 1,000 개의 질문지가 있는데, 사실은 100 가지 개념만 반복해서 묻고 있습니다. AI 는 이 질문지들의 내용을 분석해서 "이건 같은 뜻이니까 하나로 합쳐요"라고 정리해 줍니다.
  • 효과: 불필요한 중복을 줄이고, 명확한 개념 체계 (타고니) 를 만들어 연구의 효율성을 높입니다.

4. 통합 모델: "모든 게임을 한 번에 잘하는 만능 플레이어"

  • 비유: 기존 연구는 '바구니 게임'만 잘하는 플레이어, '주사위 게임'만 잘하는 플레이어가 따로 있었습니다. 하지만 AI 는 **수천 가지 다른 게임 **(인지 과제)입니다.
  • 효과: 특정 상황에만 맞는 이론이 아니라, 인간의 마음을 설명하는 통일된 이론을 만들 수 있는 기반을 제공합니다.

5. 상황 반영: "실제 세상의 소음까지 듣는 귀"

  • 비유: 실험실은 조용하고 깨끗하지만, 실제 세상은 시끄럽고 다양합니다. AI 는 실제 인터넷 글, SNS, 다양한 문화권의 데이터를 학습해서 "서구권 사람뿐만 아니라 전 세계 다양한 사람들의 마음도 고려해야 해"라고 알려줍니다.
  • 효과: 실험실 밖의 실제 삶 (생태적 타당성) 을 더 잘 반영한 연구가 가능해집니다.

⚠️ 주의할 점: "도구는 좋지만, 사장이 되어선 안 됩니다"

논문의 가장 중요한 경고는 **"AI 가 모든 걸 다 해줄 거라고 믿으면 안 된다"**는 것입니다.

  • 👁️ 투명성 문제: AI 가 정답을 맞췄을 때, 맞췄는지 이유를 모르면 (블랙박스) 과학적 이해가 깊어지지 않습니다.
  • 📉 단순화 위험: AI 가 "가장 간단한 답"을 찾자고 복잡한 인간의 마음을 너무 단순하게 줄여버릴 수 있습니다.
  • 🎨 편향 문제: AI 가 배운 데이터가 서구권 중심이라면, AI 도 그 편향을 그대로 가져와서 불공정한 결과를 낼 수 있습니다.
  • 🧠 능력 저하: 연구자가 AI 에게만 의존하면, 스스로 생각하거나 이론을 세우는 능력이 퇴화할 수 있습니다.

🚀 결론: "AI 는 조수, 인간은 선장"

이 논문은 다음과 같이 결론 짓습니다.

"AI 는 가속기가 될 수 있지만, 방향타는 인간이 잡아야 합니다."

AI 를 이용해 연구 속도를 높이고, 연결고리를 찾고, 데이터를 정리할 수는 있지만, 그 결과를 해석하고, 윤리적 판단을 하며, 새로운 이론을 창조하는 것은 여전히 인간의 역할입니다.

한마디로 요약하면:

"인지과학이라는 거대한 도서관을 정리하고, 혼란스러운 개념들을 정리하며, 더 넓은 세상을 이해하게 해주는 **최고의 조수 **(AI)를 얻었지만, **그 조수를 어떻게 쓰느냐는 연구자 **(인간)입니다."