Divide and Conquer: Accelerating Diffusion-Based Large Language Models via Adaptive Parallel Decoding

이 논문은 확산 기반 대규모 언어 모델 (dLLM) 의 이론적 병렬성과 실제 성능 간의 격차를 해소하기 위해, 분할 (Divide) 과 정복 (Conquer) 단계를 반복하고 마지막에 정제 단계를 거치는 적응형 병렬 디코딩 기법인 'DiCo'를 제안하여 추론 속도를 크게 향상시키면서도 생성 품질을 유지하는 방법을 제시합니다.

Xiangzhong Luo, Yilin An, Zhicheng Yu, Weichen Liu, Xu Yang

게시일 2026-03-02
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🍳 배경: 왜 더 빨리 만들어야 할까요?

기존의 AI(자동 회귀 모델) 는 글을 쓸 때 한 글자씩 순서대로 써나갑니다. 마치 요리사가 "소금 한 꼬집, 그다음 후추 한 꼬집"이라고 하나씩 재료를 넣는 것과 같습니다. 정확하지만 시간이 많이 걸립니다.

반면, **확산 기반 모델 (dLLM)**은 이론상으로는 한 번에 여러 글자를 동시에 채울 수 있는 잠재력이 있습니다. 마치 빈 그릇에 모든 재료를 한 번에 쏟아붓고 섞는 것처럼 말이죠. 하지만 문제는, 이렇게 한 번에 너무 많이 채우면 맛이 엉망이 되거나 (품질 저하), 요리가 실패하는 (불안정) 경우가 많다는 것입니다. 그래서 실제로는 여전히 하나씩 천천히 채우는 방식을 쓰게 됩니다.

🚀 해결책: 'DiCo(디코)'라는 새로운 요리법

이 논문은 **"이론상의 병렬성 (한 번에 여러 개) 과 실제 성능 사이의 간극"**을 메우기 위해 DiCo라는 방법을 제안합니다. 이 방법은 '분할 정복 (Divide and Conquer)' 전략을 사용합니다.

이를 거대한 건물을 짓는 공사 현장에 비유해 볼까요?

1 단계: 나누기 (Divide) - "현장 구획 나누기"

공사 시작 전, 전체 건물을 무작위로 벽돌을 쌓는 게 아니라, 어떤 부분은 서로 영향을 덜 주고, 어떤 부분은 서로 밀접하게 연관되어 있는지를 먼저 파악합니다.

  • 비유: 공사 현장의 지도를 보고, "이쪽은 기초 공사가 먼저 필요하고, 저쪽은 지붕 공사가 먼저 필요해"라고 작은 구역 (클러스터) 으로 나눕니다.
  • 핵심: AI 가 "어디를 먼저 채워도 안전할지"를 찾아내어, 서로 간섭하지 않는 **작은 그룹 (씨앗)**을 만듭니다.

2 단계: 정복하기 (Conquer) - "동시 시공"

이제 나눈 작은 구역들마다 동시에 작업을 진행합니다.

  • 비유: A 구역 팀, B 구역 팀, C 구역 팀이 동시에 각자 맡은 구역을 빠르게 쌓아 올립니다. 서로가 서로의 작업을 방해하지 않기 때문에 속도가 매우 빨라집니다.
  • 핵심: AI 는 이 작은 그룹들 안에서 여러 글자를 한 번에 채워 넣습니다. 하지만 그룹이 너무 복잡해지거나 서로 의존도가 높아지면 멈춥니다.

3 단계: 마무리하기 (Finalize) - "마무리 다듬기"

대부분의 벽돌이 쌓였을 때, 남은 몇 개의 빈 공간은 서로 매우 밀접하게 연관되어 있습니다. 이때는 다시 한 번씩 꼼꼼하게 채워 넣습니다.

  • 비유: 건물의 대략적인 형태는 다 잡혔는데, 창문 테두리나 문짝 같은 마지막 디테일은 전문가가 하나씩 정성스럽게 다듬습니다.
  • 핵심: 남은 몇 개의 글자는 정밀하게 하나씩 채워 넣어서 완성도를 높입니다.

✨ DiCo 가 가져온 놀라운 결과

이 방법을 쓰면 어떤 일이 일어날까요?

  1. 속도 폭발: 기존에 하나씩 하던 작업을 여러 개씩 동시에 처리하므로, 3 배에서 5 배 이상 더 빠르게 글을 생성합니다. (예: 256 단계를 67 단계로 줄임)
  2. 품질 유지: 무작위로 여러 개를 채우는 게 아니라, 서로 간섭하지 않는 그룹을 찾아서 채우기 때문에 글의 정확도와 논리성은 그대로 유지됩니다. 오히려 기존 방법보다 더 좋은 점수를 받기도 합니다.
  3. 학습 불필요: 이 방법은 AI 모델을 다시 학습시킬 필요 없이, 이미 만들어진 모델을 그대로 더 똑똑하게 사용하는 '학습 없는 (Training-free)' 기술입니다.

📝 한 줄 요약

"DiCo 는 AI 가 글을 쓸 때, '한 번에 다 쓰려다 실패하는 것'과 '하나씩 천천히 쓰는 것' 사이에서, '작은 그룹으로 나누어 동시에 쓰되, 마지막은 꼼꼼하게 다듬는' 현명한 전략을 찾아낸 것입니다."

이 기술 덕분에 앞으로 AI 와 대화하거나 글을 쓸 때, 기다리는 시간이 획기적으로 줄어들고 더 빠르고 정확한 답변을 받을 수 있게 될 것입니다.