Diffusion LLMs can think EoS-by-EoS

이 논문은 확산 기반 LLM 이 정답보다 긴 생성 길이를 설정하여 끝-of-시퀀스 (EoS) 토큰으로 패딩할 때, 이러한 EoS 토큰의 표현을 숨겨진 연산 공간 (스크래치패드) 으로 활용하여 복잡한 추론 능력을 향상시킨다는 'EoS-by-EoS 사고' 가설을 실험과 인과적 개입을 통해 입증했습니다.

Sarah Breckner, Sebastian Schuster

게시일 2026-03-06
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🧩 핵심 아이디어: "빈 종이를 더 많이 주면 더 잘 생각한다?"

기존의 AI(autoregressive LLM) 는 글을 쓸 때 한 글자씩 순서대로 써내려갑니다. 마치 사람이 연필로 글을 쓸 때, 한 번에 한 글자씩만 써내려가는 것과 비슷하죠.

하지만 이 논문에서 연구한 **확산 모델 (Diffusion LLM)**은 조금 다릅니다. 이 모델은 한 번에 여러 글자를 동시에 예측하고, 틀린 부분은 지우고 다시 쓰는 과정을 반복합니다. 마치 벽에 스프레이 페인트로 그림을 그릴 때, 처음엔 전체를 뿌리고 점점 선을 명확하게 그려나가는 방식과 비슷합니다.

🤔 발견된 의문: "왜 답보다 훨씬 긴 글을 쓸까?"

연구자들은 흥미로운 현상을 발견했습니다. 확산 모델에게 "12+52+64-7을 계산해줘"라고 물었을 때, 정답은 "121"이라는 짧은 글자만 있으면 되는데, 모델이 정답 뒤에 끝을 알리는 기호 (EoS, End-of-Sequence) 를 수십 개나 붙여서 긴 글을 만들어낼 때 오히려 정답률이 높아진다는 것입니다.

마치 **"문제 풀이 공간이 좁으면 실수하지만, 종이를 10 장이나 더 주면 그 빈 공간에 생각을 정리해서 더 잘 풀린다"**는 뜻입니다.


🧠 가설: "빈 종이를 '숨은 계산장'으로 쓴다"

연구자들은 이 현상을 이렇게 설명합니다.

"AI 는 끝을 알리는 기호 (EoS) 가 비어 있다고 생각하지 않는다. 그 빈 공간에 우리가 볼 수 없는 '숨은 계산장 (Scratchpad)'을 만들어서 복잡한 문제를 풀고 있다."

이를 **'EoS-by-EoS 사고 (Thinking EoS-by-EoS)'**라고 부릅니다.

🎨 비유: "빈 캔버스에 그림을 그리는 화가"

  • 기존 AI ( Autoregressive): 화가가 캔버스 한 구석에서 시작해 한 줄씩 그림을 그립니다. 실수하면 지우기가 어렵고, 미리 전체 구도를 생각할 공간이 부족합니다.
  • 확산 모델 (Diffusion): 화가가 캔버스 전체를 먼저 흰색으로 덮고 시작합니다.
    • 연구자들은 이 모델이 정답이 필요한 부분만 채우고, 나머지 빈 공간 (EoS 토큰) 에는 우리가 볼 수 없는 '초록색 연필'로 계산 과정을 적어둔다고 추측했습니다.
    • 그리고 최종적으로 그 초록색 계산 내용을 지우고 정답만 남기는 것이죠.

🔬 실험: "그게 진짜 생각인가?"

연구자들은 이 가설을 증명하기 위해 세 가지 실험을 했습니다.

1. 실험: "종이 크기를 늘려보자"

  • 방법: 모델에게 정답을 쓸 공간은 그대로 두고, 뒤에 빈 종이를 더 많이 붙여주었습니다.
  • 결과: 빈 종이가 많을수록 (EoS 토큰이 많을수록) 모델의 추리 능력이 쑥쑥 올라갔습니다. 특히 수학 문제나 퍼즐 (스도쿠) 에서 두드러졌습니다.
  • 의미: 빈 공간이 많을수록 '숨은 계산장'이 넓어져서 더 복잡한 문제를 풀 수 있다는 뜻입니다.

2. 실험: "빈 종이를 직접 채워보자"

  • 방법: 모델이 계산할 수 있는 '단계 수'는 고정해두고, 의도적으로 뒤에 빈 종이를 1 장, 2 장, 4 장... 128 장까지 붙여주었습니다.
  • 결과: 빈 종이가 4 장 정도만 붙여줘도 성능이 크게 좋아졌습니다. 즉, 모델이 계산할 공간이 조금만 더 필요해도 훨씬 똑똑해진다는 것입니다.

3. 실험: "머릿속을 바꿔치기 해보자 (가장 중요!)"

  • 방법: 이 부분이 가장 흥미롭습니다.
    1. 모델 A 에게 "상자 1 에는 사과가 있다"고 물어보고, 그 과정에서 빈 종이에 적힌 숨은 계산 내용을 가져옵니다.
    2. 모델 B 에게 "상자 2 에는 사과가 있다"고 물어보는데, 모델 A 의 빈 종이에 적힌 내용 (숨은 계산) 을 강제로 모델 B 에게 심어줍니다.
    3. 모델 B 가 어떤 답을 내놓는지 봅니다.
  • 결과: 모델 B 는 원래 질문 (상자 2) 에 대한 답이 아니라, 심어준 내용 (상자 1) 에 대한 답을 내놓았습니다.
  • 의미: 빈 종이에 적힌 내용 (EoS 토큰의 상태) 이 실제로 계산의 핵심이라는 것이 증명되었습니다. 빈 종이는 그냥 비어있는 게 아니라, 문제 해결을 위한 중요한 메모였던 것입니다.

💡 결론: "AI 는 말하지 않아도 생각한다"

이 논문의 핵심 메시지는 다음과 같습니다.

  1. AI 는 말하지 않아도 생각한다: 우리가 보기엔 그냥 '끝'을 알리는 기호 (EoS) 일 뿐이지만, AI 는 그 공간에 **숨은 생각 (Hidden Computation)**을 저장하고 있습니다.
  2. 더 많은 공간이 필요하다: 복잡한 문제를 풀려면, 정답을 쓰는 공간뿐만 아니라 생각을 정리할 '숨은 공간'도 충분히 주어야 합니다.
  3. 효율적인 사고: 기존 AI 는 생각을 글자로 다 써내야 하지만 (말하는 것), 확산 모델은 생각을 숨겨진 공간에 저장했다가 결과를 내므로 훨씬 효율적일 수 있습니다.

한 줄 요약:

"AI 에게 정답만 쓰라고 하면 못 풀지만, '생각할 공간 (빈 종이)'을 넉넉히 주면 그 빈 공간에 생각을 정리해서 훨씬 똑똑하게 문제를 푼다!"

이 연구는 앞으로 더 똑똑한 AI 를 만들 때, 단순히 답변 길이를 늘리는 것뿐만 아니라 AI 가 '생각할 수 있는 숨은 공간'을 어떻게 설계할지에 대한 중요한 단서를 제공합니다.