Training Language Models via Neural Cellular Automata

이 논문은 신경 세포 자동자 (NCA) 를 통해 생성된 합성 비언어 데이터를 사전-사전 학습에 활용함으로써, 자연어 학습보다 효율적으로 언어 모델의 성능과 추론 능력을 향상시키는 새로운 접근법을 제시합니다.

Dan Lee, Seungwook Han, Akarsh Kumar, Pulkit Agrawal

게시일 2026-03-12
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"인공지능 (AI) 이 똑똑해지기 위해 반드시 '사람의 말'을 배워야 할까?"**라는 아주 흥미로운 질문에서 시작합니다.

기존의 AI 는 방대한 양의 인터넷 텍스트 (책, 뉴스, 블로그 등) 를 읽으며 학습합니다. 하지만 이 방식에는 문제점이 있습니다. 데이터가 한정되어 있고, 인간의 편견이 섞여 있으며, 데이터 정리에 많은 노력이 듭니다.

저자들은 **"아니면, 사람의 말 대신 '수학적 규칙'이나 '게임' 같은 인공적인 데이터를 가르쳐도 똑똑해질 수 있지 않을까?"**라고 생각했습니다. 그리고 그 답은 **"네, 가능합니다. 오히려 더 빠르고 효율적일 수도 있습니다!"**였습니다.

이 논문의 핵심 내용을 일상적인 비유로 설명해 드릴게요.


1. 핵심 아이디어: "인공지능에게 '게임'을 먼저 가르치자"

이 연구에서는 **신경 세포 자동자 (NCA)**라는 것을 사용했습니다. 이게 뭔가요?

  • 비유: 마치 '콘웨이 생명 게임 (Conway's Game of Life)' 같은 것을 생각해보세요. 격자무늬 위에 점들이 있고, 아주 간단한 규칙 (예: "이웃이 3 개면 살아남고, 아니면 죽는다") 에 따라 점들이 살아나고 죽으며 패턴을 만들어갑니다.
  • 차이점: 기존 게임은 규칙이 고정되어 있지만, 이 연구에서는 규칙 자체를 AI 가 스스로 만들어내게 했습니다. 그래서 매번 전혀 다른 복잡한 패턴들이 무작위로 생성됩니다.

저자들은 AI 에게 먼저 사람의 말 (자연어) 이 아닌, 이 '생각하는 게임'의 패턴들을 수백만 개 보여주고 학습시켰습니다. 이를 **'프리 - 프리-학습 (Pre-pre-training)'**이라고 부릅니다.

2. 놀라운 결과: "게임 164 만 개가 책 16 억 개보다 낫다?"

연구 결과는 정말 놀라웠습니다.

  • 실험: AI 에게 먼저 NCA 게임 데이터 1.64 억 개를 가르친 뒤, 그다음에 인터넷 텍스트 (책, 뉴스 등) 16 억 개를 가르쳤습니다.
  • 결과: NCA 게임을 먼저 본 AI 가, 인터넷 텍스트만 10 배 더 많이 본 AI 보다 언어 이해력과 추론 능력이 더 뛰어났습니다.
  • 비유:
    • 기존 방식: 아이에게 책 10 권을 읽히면서 "이게 '사과'고, 저게 '배'야"라고 가르치는 것.
    • 이 연구 방식: 아이에게 먼저 **레고 블록으로 복잡한 구조물을 만드는 원리 (규칙)**를 익히게 한 뒤, 책 1 권을 읽히게 한 것.
    • 결론: 레고의 원리 (규칙 추론 능력) 를 먼저 익힌 아이가, 책 내용을 훨씬 더 빠르게 이해하고 응용하는 능력을 보여준 것입니다.

3. 왜 이런 일이 일어날까요? (핵심 메커니즘)

왜 '게임'이 '책'보다 더 좋은 학습이 될까요?

  • 규칙 추론 훈련: 책 (자연어) 은 의미 (사과, 배, 사랑 등) 가 있어서 AI 가 "아, 이 단어는 저 단어와 자주 같이 나오네"라고 단순 암기를 할 수 있습니다. 하지만 NCA 게임은 의미가 없습니다. 오직 **"규칙을 찾아서 다음 패턴을 예측하라"**는 것만 있습니다.
  • 비유:
    • 책 학습: "오늘은 비가 오니까 우산을 챙겨야지"라고 경험으로 배우는 것.
    • NCA 학습: "구름이 이렇게 모이면 비가 온다는 물리 법칙을 직접 찾아내서 추론하는 것."
    • AI 는 NCA 를 통해 **패턴을 찾아내고, 숨은 규칙을 추론하는 '두뇌 근육'**을 먼저 키운 것입니다. 이 근육이 생기니, 나중에 책을 읽을 때도 내용을 더 깊이 이해하게 된 것입니다.

4. 중요한 발견: "맞춤형 학습"이 필요하다

또 다른 재미있는 점은, 모든 분야에 같은 NCA 가 좋은 것은 아니었다는 것입니다.

  • 코딩 (프로그래밍) 을 가르칠 때: 너무 복잡한 규칙보다는 단순하고 명확한 규칙이 더 도움이 되었습니다. (코드는 논리가 명확해야 하니까요.)
  • 수학이나 일반 텍스트를 가르칠 때: 더 복잡하고 미묘한 규칙이 더 도움이 되었습니다.
  • 비유: 요리사에게 "불 조절"을 가르칠 때, 스테이크를 굽는 법 (고급, 복잡한 조절 필요) 과 계란 프라이를 굽는 법 (단순한 조절) 은 서로 다른 훈련이 필요한 것과 같습니다.
  • 의의: 이제 우리는 AI 가 어떤 일을 할지 (코딩, 수학, 글쓰기) 미리 정해두고, 그 분야에 딱 맞는 인공 데이터의 복잡도를 조절해서 가르칠 수 있게 되었습니다.

5. 결론: AI 의 미래는 "더 많은 데이터"가 아니라 "더 좋은 데이터"

이 논문은 우리에게 큰 메시지를 줍니다.

  • 기존 생각: AI 를 똑똑하게 만들려면 인터넷에 있는 모든 책을 다 읽게 해야 한다. (데이터 양이 중요)
  • 새로운 생각: AI 가 **추론하는 능력 (두뇌 근육)**을 키울 수 있는 잘 설계된 인공 데이터를 먼저 가르치는 것이 더 효율적이다. (데이터 질과 구조가 중요)

한 줄 요약:

"AI 에게 사람의 말을 가르치기 전에, 규칙을 찾아내는 게임을 먼저 가르쳐주니, AI 가 책을 훨씬 더 똑똑하고 빠르게 읽게 되었다!"

이 기술이 발전하면, 앞으로는 인터넷의 모든 데이터를 긁어모으지 않아도, 인공지능이 스스로 배워야 할 '지혜의 원리'를 담은 인공 데이터로만 훈련시켜도 매우 똑똑한 AI 를 만들 수 있을지도 모릅니다.