Human-like Working Memory Interference in Large Language Models

이 논문은 사전 학습된 대규모 언어 모델 (LLM) 이 인간의 작업 기억과 유사한 간섭 현상을 보이며, 관련 정보를 직접 복사하는 대신 여러 기억 항목을 얽힌 표현으로 인코딩하여 간섭을 제어함으로써 작업 기억을 수행한다는 것을 규명했습니다.

Hua-Dong Xiong (School of Psychological and Brain Sciences, Georgia Tech), Li Ji-An (Department of Psychology, New York University), Jiaqi Huang (Department of Cognitive Science, Indiana University Bloomington, Honda Research Institute), Robert C. Wilson (School of Psychological and Brain Sciences, Georgia Tech, Center of Excellence for Computational Cognition, Georgia Tech), Kwonjoon Lee (Honda Research Institute), Xue-Xin Wei (Departments of Neuroscience and Psychology, The University of Texas at Austin)

게시일 2026-04-14
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🧠 핵심 비유: "소란스러운 도서관과 기억력"

인공지능 (LLM) 은 엄청난 양의 책 (데이터) 을 읽은 거대한 도서관 사서라고 상상해 보세요. 이 사서는 방금 전까지 읽었던 모든 책 내용을 완벽하게 기억하고 접근할 수 있습니다. 그런데 이상한 일이 발생합니다.

"방금 전에 읽은 3~4 권의 책 제목만 기억하고, 그보다 더 많은 책은 혼란스러워해서 잊어버린다."

인간도 마찬가지입니다. 우리는 한 번에 4~5 개 정도의 정보만 머릿속에 유지할 수 있습니다. 이 논문은 **"인공지능이 왜 이런 인간 같은 한계를 겪는가?"**를 연구했고, 그 답은 **"정보를 단순히 '찾아내는' 문제가 아니라, '잡음'을 막아내는 문제"**라는 것을 발견했습니다.


🕵️‍♂️ 연구의 주요 발견 3 가지

1. "위치만 기억하면 되지 않나?" (위치 vs. 간섭)

  • 기존 생각: 인공지능은 모든 과거 대화를 다 볼 수 있으니, "N 번 전의 글자"라는 **위치 (주소)**만 기억하면 그 글자를 찾아내면 될 텐데, 왜 망할까?
  • 실제 발견: 인공지능은 단순히 주소를 기억하는 게 아니라, 모든 글자들이 서로 뒤죽박죽 섞여서 (중첩되어) 기억하고 있었습니다.
  • 비유: 도서관 사서가 "3 번 선반의 5 번째 책"을 찾으려는데, 3 번 선반에 있는 다른 책들이 너무 시끄럽게 떠들고 있어서 정작 찾아야 할 책을 못 듣는 상황입니다.

2. "최근 기억에 너무 집착한다" (최근성 간섭)

  • 현상: 인공지능이 틀릴 때, 정답이 아닌 방금 전에 들은 다른 글자를 자주 말해줍니다.
  • 비유: 친구가 "3 분 전의 메뉴는 뭐였지?"라고 물었을 때, "아니, 1 분 전에 먹은 그거 아니야?"라고 대답하는 것과 같습니다. 머릿속에 있는 최신 정보들이 정답을 가려버리는 **간섭 (Interference)**이 일어나는 것입니다.

3. "인공지능도 인간처럼 '집중'을 해야 한다"

  • 메커니즘: 인공지능이 정답을 말할 때, 내부적으로 다음과 같은 과정을 거칩니다.
    1. 잡음 제거: 정답과 상관없는 다른 글자들의 소음을 차츰차츰 누릅니다.
    2. 분리: 기억해야 할 정보들을 서로 겹치지 않게 분리합니다.
    3. 집중: 마지막 순간에 정답만 선명하게 부각시킵니다.
  • 결론: 인공지능이 기억력을 잘 발휘하려면, 단순히 정보를 더 많이 저장하는 게 아니라 **불필요한 정보를 억제하고 정답에 집중하는 능력 (간섭 통제)**이 중요합니다.

🚀 더 놀라운 사실: 기억력이 곧 지능이다

이 연구는 또 다른 중요한 사실을 발견했습니다.

  • **N-back 테스트 (작업 기억 테스트)**에서 잘하는 인공지능일수록, 수학, 논리, 지시 따르기 같은 일반적인 지능 테스트에서도 잘했습니다.
  • 비유: "한 번에 여러 가지를 잘 기억하고 집중하는 능력"은 인공지능이 똑똑해지기 위한 핵심 열쇠였습니다. 단순히 책장이 많은 것 (데이터 양) 만이 지능을 결정하는 게 아니라, 그 책들 사이에서 정답을 골라내는 집중력이 더 중요하다는 뜻입니다.

💡 결론: 인공지능을 더 똑똑하게 만드는 길

이 논문의 결론은 매우 명확합니다.

"인공지능의 기억력 한계는 '저장 공간 부족' 때문이 아니라, '너무 많은 정보 속에서 정답을 골라내는 집중력 부족' 때문입니다."

앞으로 인공지능을 더 발전시키려면, 단순히 더 긴 대화 기록 (Context) 을 주는 것뿐만 아니라, 불필요한 정보 (잡음) 를 억제하고 정답에 집중하게 만드는 기술을 개발해야 합니다. 이는 인간 두뇌가 겪는 문제와 인공지능이 겪는 문제가 본질적으로 같다는 것을 보여주는 매우 흥미로운 발견입니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →