Spectral Entropy Collapse as an Empirical Signature of Delayed Generalisation in Grokking

이 논문은 1 계층 트랜스포머에서 '그로킹' (Grokking) 현상이 발생하기 직전에 정규화된 스펙트럴 엔트로피가 임계값으로 수렴한다는 것을 발견하여, 이를 지연된 일반화의 예측 가능한 메커니즘적 지표로 제시합니다.

Truong Xuan Khanh, Truong Quynh Hoa, Luu Duc Trung, Phan Thanh Duc

게시일 2026-04-16
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 인공지능 (AI) 이 어떻게 갑자기 "아하!" 하는 순간, 즉 **그로킹 (Grokking)**을 경험하는지에 대한 비밀을 파헤친 연구입니다.

일반적으로 AI 는 학습할 때 점수가 천천히 오릅니다. 하지만 '그로킹' 현상이 일어나는 AI 는 처음에는 시험 문제를 외워버리는 (암기) 단계만 거치다가, 갑자기 수천 번의 학습을 더 한 뒤 순간적으로 이해하게 되어 문제를 풀 수 있게 됩니다. 왜 이렇게 갑자기 이해하게 되는지, 그리고 그 전조증상은 무엇인지 이 논문은 아주 흥미로운 비유로 설명합니다.

핵심 내용을 일상적인 언어와 비유로 설명해 드릴게요.


1. 핵심 비유: "혼란스러운 도서관"에서 "정리된 도서관"으로

이 논문은 AI 가 문제를 해결하는 과정을 거대한 도서관에 비유합니다.

  • 학습 초기 (암기 단계): AI 는 도서관에 책 (데이터) 을 아무렇게나 쌓아둡니다. 책이 너무 많고 뒤죽박죽이라서, 특정 책을 찾으려면 모든 선반을 뒤져야 합니다. 이때 AI 는 "이 책 제목이 뭐였지? 아, 외웠어!"라고 암기만 합니다.
    • 이 상태를 논문에서는 **'엔트로피 (혼란도) 가 높다'**고 말합니다. 책이 고르게 퍼져 있어서 정리되지 않은 상태입니다.
  • 그로킹 직전 (이해의 순간): AI 는 갑자기 책들을 분류하고 정리하기 시작합니다. 수학 공식이나 규칙에 따라 책들을 특정 선반에 딱딱 맞춰 놓는 것입니다.
    • 이때 도서관의 혼란도 (엔트로피) 가 급격히 떨어집니다. 책들이 한두 군데로 쏠려서 정리된 상태가 되는 거죠.
    • 이 논문은 **"엔트로피가 일정 수준 (약 0.61) 이하로 떨어지면, AI 는 곧바로 문제를 이해하게 된다"**고 발견했습니다.

2. 주요 발견 5 가지 (일상 언어로)

① 두 단계의 드라마: "크기 키우기"와 "정리하기"

AI 가 문제를 이해하기까지 두 단계를 거칩니다.

  1. 단순한 크기 키우기: AI 가 책 (파라미터) 의 크기를 키우며 무작정 암기합니다. 하지만 크기만 키운다고 해서 이해하는 건 아닙니다.
  2. 정리하기 (엔트로피 붕괴): 책들이 정리되면서 혼란도가 떨어집니다. 이 '정리'가 일어나야만 비로소 AI 는 문제를 이해하게 됩니다.

② 예측 가능한 신호: "경보음"

연구진은 AI 의 '혼란도'를 측정하는 지표를 만들었습니다. 이 지수가 약 0.61이라는 기준선 아래로 떨어지면, AI 는 약 1,000 걸음 (학습 단계) 뒤에 갑자기 문제를 해결합니다.

  • 비유: 마치 태풍이 오기 전 기압이 떨어지듯, AI 가 문제를 이해하기 전 '혼란도'가 떨어지는 것을 보면 "아, 곧 그로킹이 일어나겠구나!"라고 미리 예측할 수 있습니다.

③ 인과관계 확인: "혼란을 막으면 이해도 늦어진다"

연구진은 실험을 통해 인과관계를 증명했습니다.

  • 실험: AI 가 책을 정리하지 못하게, 일부러 책들을 섞어주는 장치를 넣었습니다.
  • 결과: 책을 정리하지 못하게 하니, AI 가 문제를 이해하는 시점이 약 5,000 걸음이나 늦어졌습니다.
  • 의미: 책의 크기 (파라미터 노름) 가 아니라, **책을 정리하는 것 (엔트로피 붕괴)**이 AI 가 이해하는 진짜 원인임을 확인했습니다.

④ 미래 예측 공식: "얼마나 더 걸릴까?"

혼란도가 기준선까지 얼마나 남았는지를 보면, AI 가 문제를 이해하기까지 얼마나 더 학습해야 하는지를 수학 공식으로 계산할 수 있습니다.

  • 비유: "지금 혼란도가 0.62 라면, 약 12,000 걸음 더 걸릴 거야"라고 12,000 걸음 앞을 미리 알려주는 나침반 역할을 합니다.

⑤ 중요한 단서: "정리만으로는 부족하다"

이게 가장 중요한 부분입니다. 엔트로피가 떨어지는 것만으로는 충분하지 않습니다.

  • **MLP(단순한 신경망)**는 책을 정리 (엔트로피 붕괴) 했지만, 여전히 문제를 못 풀었습니다.
  • **Transformer(이 연구에서 쓴 모델)**는 책을 정리했고, 그리고 그 책들이 '수학 규칙'이라는 특정 형태로 정리되었기 때문에 문제를 풀었습니다.
  • 비유: 도서관을 정리하는 것 (엔트로피 붕괴) 은 필수 조건이지만, 그 책들이 '수학'이라는 주제에 맞게 정리되어야 (아키텍처의 인덕티브 바이어스) 비로소 이해가 됩니다.

3. 이 연구가 왜 중요한가요?

지금까지 AI 가 갑자기 문제를 푸는 이유는 "마법"이나 "우연"처럼 여겨졌습니다. 하지만 이 논문은 **"아니야, 이건 '혼란도'가 떨어지는 신호로 미리 알 수 있어"**라고 말합니다.

  • 실용성: AI 학습을 할 때, 이 '혼란도' 지표를 보면 "아, 이제 정리 단계에 들어갔네. 곧 성공할 거야"라고 알 수 있습니다. 혹은 "정리가 안 되네? 이 모델은 이 문제를 못 풀겠구나"라고 학습을 중단하거나 설정을 고칠 수 있습니다.
  • 한계: 이 연구는 아직 작은 규모의 수학 문제와 특정 모델 (1 층 트랜스포머) 에서만 확인되었습니다. 거대한 언어 모델이나 다른 복잡한 문제에서도 같은 법칙이 적용될지는 아직 알 수 없습니다.

요약

이 논문은 **"AI 가 갑자기 깨닫는 순간 (그로킹) 은, 마음속의 혼란 (엔트로피) 이 정리될 때 일어난다"**고 말합니다. 그리고 그 혼란도가 떨어지는 신호를 보면, AI 가 언제 깨달을지 미리 예측할 수 있다는 놀라운 발견을 했습니다. 마치 폭풍 전의 고요함을 보고 태풍을 예측하듯, AI 의 '아하!' 순간을 미리 감지하는 것입니다.

연구 분야의 논문에 파묻히고 계신가요?

연구 키워드에 맞는 최신 논문의 일일 다이제스트를 받아보세요 — 기술 요약 포함, 당신의 언어로.

Digest 사용해 보기 →