Marginals Before Conditionals

이 논문은 신경망이 조건부 학습을 수행할 때 모호성으로 인해 발생하는 로그 K 의 손실 플래토가 먼저 형성된 후, 데이터셋 크기와 학습률에 의해 결정되는 집단적 전이를 거쳐 급격히 해결되는 역동적 학습 메커니즘을 규명했습니다.

Mihir Sahasrabudhe

게시일 2026-03-12
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

1. 실험의 설정: "혼란스러운 카페"

연구진은 AI 에게 아주 특별한 과제를 주었습니다.

  • 상황: 카페에 100 가지 종류의 커피 (B) 가 있습니다. 하지만 각 커피는 5 가지 다른 맛 (A) 으로 나올 수 있어, "이 커피는 무슨 맛일까?"라고 물으면 AI 는 5 가지 중 하나를 고르라고 막막해합니다. (이걸 K=5 의 모호함이라고 합니다.)
  • 해결책: 하지만 주문할 때 **"선택지 (z)"**라는 작은 메모를 함께 줍니다. "메모를 보면 정확히 어떤 맛인지 알 수 있어!"라고요.
  • 목표: AI 는 이 메모를 보고 정확한 맛을 맞춰야 합니다.

2. 놀라운 발견: "먼저 평균을 맞추고, 나중에 정답을 맞춘다"

AI 를 훈련시키자 아주 특이한 현상이 일어났습니다.

  1. 첫 번째 단계 (막판까지 멈춤): AI 는 처음에 메모 (z) 를 아예 무시하고, "가장 흔한 맛"이나 "모든 맛의 평균"을 예측합니다. 이때 실수율은 정확히 5 가지 가능성의 로그값만큼 유지됩니다.
    • 비유: 마치 "오늘 메뉴가 5 가지 중 하나일 테니, 그냥 '아메리카노'라고만 답하는 것"과 같습니다. AI 는 이 상태에 수천 번의 훈련 동안 멈춰 서서 (플랫폼, Plateau) 아무 진전을 보이지 않습니다.
  2. 두 번째 단계 (갑작스러운 깨달음): 갑자기, 어느 순간 모든 AI 가 동시에 "아! 이 메모를 보면 정답이구나!"라고 깨닫습니다. 실수율이 0 으로 뚝 떨어지며, 메모를 보고 정답을 맞추기 시작합니다.
    • 비유: 장난감을 조립하다가 갑자기 "아하! 이 부품을 이렇게 끼우면 되네!"라고 깨닫는 순간, 모든 부품을 한 번에 맞춰버리는 것과 같습니다.

3. 왜 이렇게 걸릴까? (핵심 원인)

이 연구는 왜 AI 가 이렇게 오랫동안 멈춰 있는지 그 이유를 밝혀냈습니다.

  • 데이터 양이 중요하지, 난이도가 아니다:

    • 만약 커피 종류가 5 가지에서 36 가지로 늘어난다면 (난이도 증가), AI 가 멈춰 있는 시간은 변하지 않았습니다.
    • 대신, **훈련해야 할 커피의 총 개수 (데이터 양)**가 많아질수록 멈춰 있는 시간이 길어졌습니다.
    • 비유: "메뉴가 5 개든 36 개든, AI 가 메모를 쓰는 법을 배우는 데 걸리는 시간은 비슷해요. 하지만 훈련을 시켜야 하는 커피가 100 잔인지 1,000 잔인지에 따라 걸리는 시간이 달라집니다."
  • 소음 (Noise) 이 오히려 방해한다:

    • 보통은 학습 과정에 약간의 '소음' (무작위성) 이 있으면 더 빨리 해결된다고 생각하기 쉽습니다. 하지만 이 연구에서는 소음이 많을수록 AI 가 그 멈춰 있는 상태 (평균 맞추기) 에서 벗어나는 데 더 오래 걸렸습니다.
    • 비유: AI 가 평평한 바닥 (평균 상태) 에 앉아 있는데, 주변이 너무 시끄럽고 흔들리면 (소음), AI 는 "여기가 안전한 곳이야, 그냥 여기에 머물자"라고 생각해서 움직이기를 더 꺼리게 됩니다. 이를 **'엔트로피적 안정화'**라고 부릅니다.

4. 내부 작동 원리: "지휘자가 먼저 등장한다"

AI 내부의 신경망을 들여다보니, 실수가 줄어들기 약 50% 전에 이미 AI 의 특정 부위가 "메모 (z) 를 읽는 역할"을 맡고 있다는 신호가 나타났습니다.

  • 비유: 오케스트라가 연주하기 전에, 지휘자가 먼저 지팡이를 들고 서서 지휘를 시작합니다. 그리고 지휘자가 준비가 되면, 전체 악단 (나머지 신경망) 이 한 번에 완벽한 연주를 시작하는 것과 같습니다.

5. 결론: AI 는 "역행"을 못 한다?

이 연구는 AI 가 "A 는 B 다"라고 배웠을 때, "B 는 A 다"라고 역으로 추론하는 것이 훨씬 어렵다는 현상 (역전 저주, Reversal Curse) 과도 연결됩니다.

  • 구조화된 학습 (메모 활용): "메모가 있으면 정답을 맞출 수 있다"는 구조가 있으면 AI 는 쉽게 배웁니다.
  • 단순 암기: 구조 없이 무작위로 "A 는 B 다"를 외우게 하면 AI 는 훨씬 더 느리게, 혹은 못 배웁니다.

요약하자면

이 논문은 **"AI 는 복잡한 문제를 해결할 때, 먼저 대충 맞는 답 (평균) 을 내고, 그 상태에서 데이터 양만큼 훈련을 쌓은 뒤, 갑자기 모든 것을 동시에 깨닫는 순간을 가진다"**는 사실을 증명했습니다.

이것은 AI 가 단순히 정보를 주입받는 기계가 아니라, 내부적으로 복잡한 구조를 조립하고, 특정 조건이 갖춰지면 비약적으로 발전하는 '생각의 과정'을 가진 존재임을 보여줍니다. 마치 아이에게 장난감을 주면 처음엔 막상막하하다가, 어느 순간 갑자기 조립법을 터득하고는 모든 부품을 한 번에 맞춰버리는 것과 같습니다.