Expressive Power of Implicit Models: Rich Equilibria and Test-Time Scaling

이 논문은 암시적 모델이 테스트 시간 계산량 증가에 따라 반복 계산을 통해 표현력이 확장되어 더 풍부한 함수 클래스를 구현할 수 있음을 수학적으로 증명하고, 이를 이미지 복원부터 LLM 추론까지 다양한 분야에서 검증했습니다.

Jialin Liu, Lisang Ding, Stanley Osher, Wotao Yin

게시일 2026-03-03
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🎯 핵심 아이디어: "한 번에 다 하기 vs 천천히 반복해서 다듬기"

기존의 일반적인 AI(명시적 모델) 는 한 번의 큰 작업으로 답을 내놓습니다. 예를 들어, 복잡한 문제를 풀 때 "이게 정답이야!"라고 바로 외치는 것과 비슷합니다. 하지만 답이 너무 복잡하면, AI 는 그걸 기억하기 위해 엄청난 두뇌 (메모리) 와 많은 층 (깊은 네트워크) 을 만들어야 합니다.

반면, 이 논문에서 다루는 임시적 모델은 **"반복해서 다듬는 과정"**을 사용합니다.

  • 비유: 그림을 그릴 때, 한 번에 완벽하게 그리지 않고, 초벌 sketch 를 그린 뒤, 같은 붓으로 여러 번 덧칠하고 다듬어서 최종적인 명작을 완성하는 방식입니다.
  • 특징: 같은 붓 (같은 파라미터) 을 계속 쓰지만, **반복 횟수 (테스트 시간 계산)**를 늘리면 그림이 점점 더 정교해집니다.

🔍 이 논문이 발견한 놀라운 사실 3 가지

1. "단순한 규칙"이 "복잡한 결과"를 만든다 (Expressive Power)

  • 상황: 우리가 풀고 싶은 문제가 아주 복잡하고, 어떤 부분에서는 급격하게 변하는 것 (예: 1/x1/x처럼 0 에 가까워질 때 무한히 커지는 함수) 이라고 가정해 봅시다.
  • 기존 방식: 이런 복잡한 것을 그리려면 AI 가 엄청나게 깊고 넓게 만들어져야 합니다.
  • 이 논문의 발견: 아주 단순하고 매끄러운 규칙 (Operator) 하나만 있어도, 그것을 반복해서 적용하면 결국 그 복잡한 그림을 완벽하게 그릴 수 있다는 것입니다.
  • 비유: 마치 나비 효과처럼, 아주 작은 규칙을 반복해서 적용하면 결국 거대한 태풍 (복잡한 결과) 을 만들어낼 수 있다는 뜻입니다. 수학적으로 증명했으니, "단순한 규칙 + 반복 = 복잡한 정답"이 가능하다는 게 확실해졌습니다.

2. "시간을 더 쓰면 지능이 올라간다" (Test-Time Scaling)

  • 기존 AI: 학습할 때 정해진 크기를 정해두면, 추론 (사용) 할 때 그 크기 이상으로 똑똑해지지 않습니다. 더 똑똑해지려면 모델을 처음부터 다시 크게 만들어야 합니다.
  • 임시적 모델: 학습된 모델은 그대로 두고, 추론할 때 반복 횟수만 늘리면 성능이 계속 좋아집니다.
  • 비유: 시험을 볼 때, **공부 시간 (반복 횟수)**을 더 투자하면, 같은 교재 (모델) 를 가지고도 훨씬 더 높은 점수를 맞을 수 있다는 뜻입니다. "컴퓨팅 자원 (시간)"을 더 써서 지능을 확장할 수 있는 것입니다.

3. "메모리 절약의 마법" (Constant Memory)

  • 기존 AI: 층을 깊게 만들면 (깊은 신경망), 그 모든 층의 정보를 기억해야 하므로 메모리가 폭발합니다.
  • 임시적 모델: 같은 층을 반복해서 쓰기 때문에, 메모리 사용량은 변하지 않습니다. 무한히 깊은 네트워크를 만든다고 해도 메모리는 일정하게 유지됩니다.
  • 비유: 같은 책을 100 번 읽든 1,000 번 읽든, 책 한 권의 크기는 변하지 않는 것과 같습니다.

🧪 실제 실험: 어디에 쓰일까요?

저자들은 이 이론이 실제로 잘 작동하는지 4 가지 분야에서 증명했습니다.

  1. 이미지 복원 (흐린 사진 선명하게 하기):
    • 흐릿한 사진을 넣고 반복해서 다듬으면, 처음에는 뭉개진 그림이 점점 선명해집니다. 반복할수록 이미지의 디테일 (복잡한 부분) 이 살아납니다.
  2. 과학 계산 (날씨 예보/유체 역학):
    • 복잡한 바람이나 물의 흐름을 계산할 때, 단순한 공식을 반복 적용하면 정밀한 해답에 도달합니다.
  3. 운영 연구 (최적의 경로 찾기):
    • 복잡한 물류 경로 문제를 풀 때, 단순한 그래프 신경망을 반복하면 더 정확한 해를 찾습니다.
  4. LLM(대규모 언어 모델) 추론:
    • "Charge(전하/요금)"라는 단어가 물리냐, 금융이냐에 따라 의미가 달라지는 모호한 질문을 할 때, 반복 횟수를 늘리면 AI 가 문맥을 더 잘 이해하고 정확한 답변을 내놓습니다. 처음엔 헷갈려하다가, 생각할 시간을 더 주면 (반복) 명확해집니다.

💡 결론: 왜 이것이 중요한가요?

이 논문은 **"AI 가 더 똑똑해지려면 무조건 모델을 키울 필요는 없다"**는 새로운 패러다임을 제시합니다.

  • 기존: "더 큰 모델 (더 많은 파라미터) 을 만들어라."
  • 새로운 접근: "작은 모델을 만들어두고, 풀 때 더 생각하게 (반복하게) 하라."

이는 마치 단순한 두뇌를 가진 로봇에게 "이 문제를 풀 때까지 계속 생각해보라"고 지시하면, 거대한 두뇌를 가진 로봇 못지않은 복잡한 문제를 해결할 수 있게 된다는 뜻입니다.

한 줄 요약:

"단순한 규칙을 반복하면, 복잡한 세상을 해결할 수 있는 강력한 지능이 탄생한다. 그리고 그 지능은 메모리를 늘리지 않고도, '생각하는 시간'을 늘려서 무한히 확장할 수 있다."

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →