How Large Language Models Get Stuck: Early structure with persistent errors

본 논문은 대규모 언어 모델이 초기 학습 단계에서 잘못된 문법적 편향을 형성하여 이를 후기까지 유지하는 '고착' 현상을 발견하고, 이를 설명하는 '이중어 가설 (Bigram Hypothesis)'을 제시하며 언어학적 통찰을 통해 모델 학습 효율성을 개선할 수 있음을 주장합니다.

Alokesh Manna, William Snyder, Whitney Tabor

게시일 2026-03-12
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🧠 핵심 주제: "아기 언어 모델의 성장 과정과 '나쁜 습관'"

이 연구는 거대 언어 모델 (OPT) 을 마치 아기처럼 훈련시켰습니다. 최신 모델들이 수조 개의 단어를 배우는 것과 달리, 이 모델은 '베이비 램 (BabyLM)'이라는 1 억 단어 정도의 작은 데이터로만 훈련되었습니다. 연구자들은 이 모델이 문법을 어떻게 배우는지, 그리고 어떤 시기에 어떤 실수를 저지르면 그 실수가 평생 고쳐지지 않는지 관찰했습니다.

1. 실험 방법: "올바른 문장 vs 틀린 문장" 대결

연구자들은 모델에게 67 가지 종류의 문법 테스트를 시켰습니다.

  • 예시: "제이슨이 보고서를 읽기 전에 어떤 보고서를 제출했나요?" (올바른 문장) vs "제이슨이 보고서를 읽기 전에 어떤 보고서를 제출했나요?" (틀린 문장, 어색함)
  • 모델은 두 문장 중 어떤 것이 더 자연스러운지 확률로 판단해야 합니다.

2. 주요 발견: "실수는 일찍, 그리고 영구적으로"

놀라운 사실은 모델이 문법을 배우는 과정에서 세 가지 패턴을 보인다는 것입니다.

  • 🌟 성공적인 학습 (CES): 처음부터 틀린 문장보다 올바른 문장을 더 좋아했습니다. (예: 주동사 일치, 수동태 등)
  • ⏳ 늦은 성공 (CLS): 처음엔 헷갈렸지만, 훈련이 많이 진행되면서 나중에 깨달았습니다.
  • 🚫 치명적인 실수 (EES): 가장 중요한 발견입니다. 약 3 분의 1 의 문법 규칙 (특히 '섬 제약' 같은 복잡한 문법) 에서 모델은 훈련 초기에 이미 틀린 문장을 더 좋아하게 되었습니다. 그리고 훈련을 아무리 오래 시켜도 이 실수를 고치지 못했습니다. 마치 어릴 때 잘못 배운 습관이 평생 고쳐지지 않는 것과 같습니다.

3. 왜 이런 일이 일어날까요? "빅그램 (Bigram) 의 함정"

연구자들은 이 현상을 설명하기 위해 **"빅그램 가설"**이라는 흥미로운 이론을 제시했습니다.

💡 비유: "아기 언어 모델은 처음에 '이웃 단어'만 보고 판단합니다."

아기 언어 모델이 훈련 초기에는 문장의 전체적인 구조 (나무의 가지치기) 를 이해하기보다, 바로 앞의 단어와 바로 뒤의 단어만 보고 "어떤 단어가 올 확률이 높은가?"를 계산합니다. 이를 '빅그램 (2 단어 조합)' 통계라고 합니다.

  • 상황: 어떤 문법 규칙에서 '올바른 문장'은 전체 구조는 맞지만, 인접한 두 단어의 조합이 드뭅니다. 반면 '틀린 문장'은 전체 구조는 엉망이지만, 인접한 두 단어의 조합이 매우 흔합니다.
  • 결과: 훈련 초기의 모델은 "인접한 단어가 흔하니까 이 문장이 더 자연스러워!"라고 착각합니다.
  • 고착화: 이 착각이 훈련 초기에 굳어지면, 나중에 문장 전체 구조를 배우더라도 그 '나쁜 습관'을 버리기 너무 어려워져서 영원히 틀린 문장을 더 좋아하게 됩니다.

실제 예시:

  • 좋은 문장: "패트릭은 대화하기가 짜증나 (irritating) 다." (전체 문법 맞음)
  • 나쁜 문장: "패트릭은 약속 (about) 하려고 대화하기로 했다." (전체 문법 틀림)
  • 모델의 착각: 'irritating'이라는 단어는 매우 드물고, 'about'이라는 단어는 매우 흔합니다. 모델은 "아, 'about'이 더 자주 쓰이니까 두 번째 문장이 더 자연스러워!"라고 판단해 버립니다. 전체 문맥을 무시하고 '인접한 단어'의 빈도수에 속은 것입니다.

4. 연구의 의의: "언어학자가 AI 를 도와줄 수 있을까?"

이 연구는 AI 개발자들에게 중요한 메시지를 줍니다.

  • 문제: AI 가 문법을 배우는 데 실패하는 이유는 단순히 '데이터가 부족해서'가 아니라, 훈련 초기의 '나쁜 통계적 습관'에 빠졌기 때문일 수 있습니다.
  • 해결책: AI 를 훈련시킬 때, 처음부터 '인접한 단어'의 빈도수에만 의존하지 않도록 의도적으로 문장 구조를 강조하는 훈련 방법을 도입해야 합니다. 즉, 아기가 걸음마를 배울 때 넘어지지 않도록 도와주듯이, AI 가 초기에 잘못된 길로 빠지지 않도록 유도해야 효율적으로 학습시킬 수 있습니다.

📝 한 줄 요약

"거대 언어 모델은 훈련 초기에 '단어들의 짝꿍' 빈도수에 속아 문법 실수를 저지르면, 그 실수가 평생 고쳐지지 않는 '나쁜 습관'으로 굳어버린다. 이 시기를 잡아내어 훈련 방식을 바꾸면 더 똑똑한 AI 를 만들 수 있다."

이 연구는 인공지능이 어떻게 배우는지, 그리고 왜 인간처럼 완벽하지 않은지 이해하는 데 중요한 통찰을 제공합니다.