When word order matters: human brains represent sentence meaning differently from large language models

본 연구는 7T fMRI 데이터를 분석한 결과, 트랜스포머 기반의 대규모 언어 모델이 단어 순서를 고려하지 않는 모델보다 뇌의 언어 처리를 더 잘 모방하지만, 여전히 인간의 뇌가 문장 구조를 어떻게 표현하는지에 비해 문장 의미 표현 능력이 현저히 떨어지며 구조적 관계를 명시적으로 인코딩한 모델보다도 성능이 낮음을 보여줍니다.

원저자: Fodor, J., Murawski, C., Suzuki, S.

게시일 2026-03-18
📖 3 분 읽기☕ 가벼운 읽기
⚕️

이것은 동료 심사를 거치지 않은 프리프린트의 AI 생성 설명입니다. 의학적 조언이 아닙니다. 이 내용을 바탕으로 건강 관련 결정을 내리지 마세요. 전체 면책 조항 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"인공지능 (LLM) 이 인간처럼 문장의 의미를 이해하는가?"**라는 아주 흥미로운 질문을 던지며 시작합니다. 연구자들은 뇌를 스캔하는 fMRI 기기를 이용해 사람들이 문장을 읽을 때 뇌가 어떻게 반응하는지 관찰하고, 이를 최신 인공지능 모델의 반응과 비교했습니다.

결론부터 말씀드리면, **"인공지능은 단어의 나열은 잘 기억하지만, 문장의 구조 (어떤 단어가 어떤 역할을 하는지) 를 인간처럼 깊이 있게 이해하지는 못한다"**는 것이 핵심입니다.

이 복잡한 연구를 마치 요리 대회에 비유해서 쉽게 설명해 드릴게요.


1. 실험의 설정: "재료"와 "요리법"의 차이

연구자들은 108 개의 문장을 만들었습니다. 이 문장들은 모두 **같은 재료 (단어)**를 사용하지만, **요리법 (문장 구조)**만 다르게 변형한 것이었습니다.

  • 예시:
    • A 문장: "카메라맨이 장비로 감독을 데려왔다." (원래 의미)
    • B 문장: "감독이 장비로 카메라맨을 데려왔다." (주어와 목적어를 바꿈)

두 문장은 단어는 똑같지만, 누가 무엇을 했는지 (역할) 가 완전히 달라 의미가 정반대가 됩니다. 연구자들은 이 문장들을 사람들에게 보여주고 뇌를 스캔했습니다.

2. 세 명의 요리사 (모델) 비교

연구자들은 이 문장들의 의미를 분석하는 세 가지 '요리사 (모델)'를 비교했습니다.

  1. 단순한 재료 섞기 (Mean 모델):

    • 이 요리사는 문장을 볼 때 단어만 보고 "아, 카메라맨, 장비, 감독이 있네"라고 생각합니다. 문장 순서나 역할은 무시하고 단어들을 그냥 섞어놓습니다.
    • 결과: 뇌의 반응과는 전혀 맞지 않았습니다. 인간은 단어 순서가 바뀌면 의미가 완전히 달라진다는 것을 알기 때문입니다.
  2. 최신 AI 요리사 (Transformer/LLM):

    • GPT-4 같은 최신 AI 입니다. 문맥을 이해하는 능력이 뛰어나다고 알려져 있죠.
    • 결과: 단어 섞기 모델보다는 훨씬 나았지만, 여전히 실패했습니다. AI 는 "주어와 목적어가 바뀌었어도 단어는 같으니까 의미가 비슷할 거야"라고 생각했습니다. 하지만 인간의 뇌는 "아니야, 이건 완전히 다른 이야기야!"라고 반응했습니다. AI 는 문장의 구조적 뉘앙스를 놓치고 있었습니다.
  3. 구조 분석가 요리사 (VerbNet-CN 모델):

    • 이 모델은 문장을 볼 때 "누가 (주어), 무엇을 (목적어), 어떻게 (동사) 했는지"를 **역할 (Role)**로 나누어 분석합니다.
    • 결과: 가장 훌륭했습니다. 인간의 뇌 반응과 가장 비슷하게 반응했습니다. 즉, 인간은 문장을 이해할 때 단순히 단어를 나열하는 게 아니라, **각 단어가 문장에서 어떤 역할을 하는지 (구조)**를 중요하게 여긴다는 뜻입니다.

3. 핵심 발견: "순서"가 생명입니다

이 연구의 가장 큰 깨달음은 **"단어의 의미만으로는 부족하고, 단어들이 어떻게 배치되었는지 (구조) 가 중요하다"**는 점입니다.

  • 인간의 뇌: 문장을 읽을 때 "카메라맨이 감독을 데려왔다"와 "감독이 카메라맨을 데려왔다"를 완전히 다른 사건으로 인식합니다.
  • 최신 AI: 두 문장이 가진 '단어들의 집합'이 비슷해서, 의미도 비슷할 것이라고 오해하는 경향이 있었습니다.

마치 레고 블록을 예로 들면, 인간은 "빨간 블록을 파란 블록 위에 올린 것"과 "파란 블록을 빨간 블록 위에 올린 것"을 완전히 다른 구조로 인식합니다. 하지만 최신 AI 는 "빨간 블록과 파란 블록이 다 있네? 비슷하겠지"라고 생각할 수 있다는 것입니다.

4. 왜 이 연구가 중요한가요?

지금까지 우리는 "AI 가 인간처럼 말을 잘하니까, 뇌도 AI 처럼 작동할 거야"라고 생각했습니다. 하지만 이 연구는 **"아니요, AI 는 아직 인간처럼 문장의 '뼈대 (구조)'를 이해하지 못합니다"**라고 경고합니다.

  • 인간: 문장의 뼈대 (누가 무엇을 했는지) 를 통해 의미를 파악합니다.
  • AI: 단어들의 확률적 연결을 통해 의미를 유추합니다.

이는 AI 가 인간처럼 사고하는 '진짜 지능'을 갖기 위해서는, 단순히 방대한 데이터를 읽는 것을 넘어 문장의 구조와 논리를 명확히 파악하는 방식을 배워야 함을 시사합니다.

요약

이 논문은 **"인간은 문장을 읽을 때 단어의 나열보다 '누가 무엇을 했는지'라는 구조를 훨씬 더 중요하게 생각한다"**는 것을 증명했습니다. 최신 AI 는 단어의 의미는 잘 알아내지만, 문장의 구조가 바뀌면 의미가 어떻게 변하는지를 인간만큼 민감하게 느끼지 못한다는 것이죠.

결국, 진짜 인간다운 언어 이해를 위해서는 AI 도 단어의 '역할'과 '구조'를 더 깊이 있게 이해해야 한다는 교훈을 줍니다.

연구 분야의 논문에 파묻히고 계신가요?

연구 키워드에 맞는 최신 논문의 일일 다이제스트를 받아보세요 — 기술 요약 포함, 당신의 언어로.

Digest 사용해 보기 →