Across the Levels of Analysis: Explaining Predictive Processing in Humans Requires More Than Machine-Estimated Probabilities

이 논문은 마의 분석 수준을 통해 언어 모델이 언어 처리의 예측 기능을 설명하는 데 있어 기계적 확률 추정만으로는 부족하며, 심리언어학적 모델과의 통합적 접근이 필요함을 비판하고 향후 연구 방향을 제시합니다.

원저자: Sathvik Nair, Colin Phillips

게시일 2026-04-13
📖 3 분 읽기☕ 가벼운 읽기

이것은 아래 논문에 대한 AI 생성 설명입니다. 저자가 작성하거나 승인한 것이 아닙니다. 기술적 정확성을 위해서는 원본 논문을 참조하세요. 전체 면책 조항 읽기

Each language version is independently generated for its own context, not a direct translation.

🍳 1. 핵심 비유: "요리사 vs. 레시피 책"

이 논문의 핵심은 인간이 언어를 처리하는 방식대형 언어 모델 (LLM) 이 작동하는 방식의 차이를 비교하는 것입니다.

  • LLM (대형 언어 모델): 거대한 레시피 책이나 통계 데이터베이스라고 생각해보세요. 이 책은 "앞에 '소금'이 오면 뒤에 '후추'가 올 확률이 90% 이다"라고 통계적으로만 알고 있을 뿐입니다. 이 책은 다음에 어떤 단어가 나올지 확률만 계산할 뿐, 그 단어가 왜 중요한지, 뇌가 어떻게 반응하는지는 모릅니다.
  • 인간 (우리 뇌): 우리는 단순히 확률을 계산하는 요리사가 아닙니다. 우리는 실제 요리를 하는 요리사입니다. 재료를 보고, 냄새를 맡고, 손맛을 느끼며, "아, 이 소금 양이 너무 많으면 후추와 안 어울리겠구나"라고 실시간으로 추론하고 반응합니다.

🚗 2. 과거의 실수와 현재의 함정 (내비게이션의 한계)

저자들은 1960 년대와 지금을 비교하며 흥미로운 점을 지적합니다.

  • 1960 년대: 연구자들은 "문장이 복잡할수록 읽기 어렵다"라고 생각했습니다. 마치 도로가 좁으면 차가 느리게 간다고만 생각한 것과 비슷합니다. 하지만 실제로는 도로 상태뿐만 아니라 운전자의 숙련도, 차종 등 다양한 요소가 영향을 미쳤죠.
  • 2020 년대 (지금): 다시 "다음 단어를 예측하는 확률 (Surprisal)"이 언어 처리의 핵심이라고 주장하는 흐름이 생겼습니다. 마치 **"내비게이션이 다음 길목에 차가 많을 확률만 알려주면 운전이 끝난다"**고 믿는 것과 같습니다.

하지만 저자는 말합니다:

"LLM 은 다음 단어가 나올 확률만 알려줄 뿐, **인간이 그 단어를 마주쳤을 때 뇌에서 어떤 일이 일어나는지 (예: 놀라움, 혼란, 재해석)**를 설명하지 못합니다."

🔍 3. 왜 LLM 만으로는 부족할까요? (세 가지 이유)

LLM 은 확률 계산은 잘하지만, 인간의 뇌는 훨씬 더 복잡하게 작동합니다.

  1. 연상 작용 vs. 예측 (Semantic Association vs. Contextual Expectation):

    • LLM 은 "사과"와 "바나나"가 자주 같이 나오니까 둘을 연관 짓습니다.
    • 하지만 인간은 문맥에 따라 "사과"가 "과일"인지 "과일"이 아닌지 (예: 애플 회사) 실시간으로 판단합니다. LLM 은 이 미묘한 뉘앙스 차이를 구별하지 못해 뇌의 반응 (N400, P600 같은 뇌파) 을 설명하지 못합니다.
  2. 환각과 착각 (Linguistic Illusions):

    • 인간은 문장을 읽다가 "그가 그녀를 사랑했다"라고 읽었을 때, 문법적으로 틀린 "그가 그녀를 사랑했다" (주어와 목적어 혼동) 같은 문장을 보고도 "아, 맞다"라고 넘어가는 착각을 하기도 합니다.
    • LLM 은 이런 인간의 착각 패턴을 잘 모방하지 못합니다. 인간은 문법 규칙을 완벽하게 따르기보다, "대충 이해하는 (Good-enough)" 전략을 쓰기도 하거든요.
  3. 생물학적 현실성 (Biological Plausibility):

    • LLM 은 거대한 데이터로 학습된 '블랙박스'입니다.
    • 반면, 인간의 뇌는 **예측 코딩 (Predictive Coding)**이라는 생물학적 원리로 작동합니다. 뇌는 "다음에 뭐가 나올지 예측했다가, 틀리면 그 오차를 수정하며 학습"합니다. LLM 은 이 생물학적 메커니즘을 흉내 내지 못합니다.

💡 4. 저자가 제안하는 해결책: "협력"

저자는 LLM 을 완전히 버리라고 하는 게 아닙니다. 오히려 LLM 과 심리언어학 모델을 함께 쓰는 것을 제안합니다.

  • LLM 의 역할: "다음에 어떤 단어가 나올지 확률을 알려주는 거대한 데이터베이스"로 활용합니다. (예: "이 문맥에서는 '사과'가 나올 확률이 높구나")
  • 심리언어학 모델의 역할: "그 확률 정보를 바탕으로 인간 뇌가 어떻게 처리하고, 어떤 오차가 발생하며, 어떻게 수정하는지를 설명하는 메커니즘"을 연구합니다.

📝 요약: 한 줄로 정리하면?

"LLM 은 '무엇이 나올지'를 예측하는 훌륭한 내비게이션이지만, 인간이 그 길을 어떻게 '주행'하는지 (뇌의 작동 원리) 를 설명하려면, 단순한 확률 계산보다는 뇌의 실제 작동 방식 (알고리즘) 을 이해하는 연구가 더 필요합니다."

이 논문은 인공지능이 언어를 잘 처리한다고 해서, 우리가 인간 언어 처리의 비밀을 다 알아낸 건 아니라고 경고하며, 인간의 뇌가 가진 복잡한 '생각의 과정'을 다시 주목하자고 이야기하고 있습니다.

연구 분야의 논문에 파묻히고 계신가요?

연구 키워드에 맞는 최신 논문의 일일 다이제스트를 받아보세요 — 기술 요약 포함, 당신의 언어로.

Digest 사용해 보기 →