Decompose, Look, and Reason: Reinforced Latent Reasoning for VLMs

이 논문은 시각적 정보 손실 없이 복잡한 추론을 가능하게 하기 위해 질문을 분해하고 조건부 시각 잠재 공간을 탐색하여 답변을 도출하는 강화된 잠재 추론 프레임워크인 'Decompose, Look, and Reason (DLR)'을 제안합니다.

Mengdan Zhu, Senhao Cheng, Liang Zhao

게시일 2026-04-10
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

1. 기존 AI 의 문제: "눈을 감고 추측하는 탐정"

기존의 AI 는 그림을 보고 질문을 받으면, 그림의 디테일을 다 기억하지 못한 채 **텍스트 **(글)로만 추론을 하거나, 그림의 일부만 잘라내어 (패치) 보는 방식이었습니다.

  • 비유: 마치 눈을 가리고 친구의 얼굴을 설명하는 사람처럼요.
    • "아, 저기 코가 있네?"라고 말하지만, 실제로는 코가 아니라 귀를 보고 있을 수도 있습니다.
    • 혹은 "전체적으로 파란색이 많네"라고 말하지만, 사실은 벽의 작은 그림만 파란색이고 나머지는 흰색인 것을 놓칩니다.
    • AI 는 그림의 중요한 정보를 글로 바꾸는 과정에서 세부 정보가 사라져버려 (Information Loss), 엉뚱한 결론을 내리는 경우가 많습니다.

2. DLR 의 해결책: "세 단계로 문제를 해결하는 똑똑한 탐정"

이 논문이 제안한 DLR은 AI 가 그림을 볼 때 인간의 뇌가 작동하는 방식을 모방합니다. "**분해 **(Decompose)의 3 단계 과정을 거칩니다.

① 분해 (Decompose): "무엇을 봐야 할지 질문을 던지다"

AI 는 거창하게 "이 그림이 뭐야?"라고 한 번에 생각하지 않습니다. 대신 문제를 작은 조각으로 나눕니다.

  • 비유: "수술용 현미경"을 켜는 것과 같습니다.
    • "이 그림에서 가방이 책 위에 있는지, 아니면 고양이 아래에 있는지 확인해야 해."라고 스스로에게 질문을 던집니다.
    • 이렇게 **텍스트로 구체적인 질문 **(전제)을 먼저 만들어냅니다.

② 보기 (Look): "질문에 맞춰 그림을 집중해서 보다"

이제 AI 는 방금 만든 질문을 바탕으로 그림의 특정 부분을 **연속적인 '잠재적 이미지 **(Latent)로 추출합니다.

  • 비유: 스마트폰 카메라의 '초점' 기능을 상상해 보세요.
    • 일반적인 AI 는 그림 전체를 흐릿하게 보거나, 잘라낸 조각만 봅니다.
    • 하지만 DLR 은 "가방과 책이 만나는 부분"에 초점을 맞춰, 그 부분의 색감, 위치, 질감 등을 **디지털 데이터 **(잠재 공간)로 정밀하게 추출합니다.
    • 이 데이터는 그림을 잘라낸 것이 아니라, AI 가 마음속으로 그림을 '느끼는' 방식으로 저장되어 있어, 그림의 전체적인 맥락 (예: 방 전체가 흰색인지) 도 놓치지 않습니다.

③ 추론 (Reason): "확인한 사실로 결론 내리기"

마지막으로, AI 는 추출한 정확한 시각적 데이터를 바탕으로 논리적인 설명을 하고 정답을 도출합니다.

  • 비유: 수사 보고서를 작성하는 과정입니다.
    • "질문: 가방이 책 위에 있나? → 확인 결과: 가방이 책 위에 있음. → 결론: 정답은 A."
    • 이렇게 **증거 **(시각 데이터)를 바탕으로 결론을 내기 때문에, 엉뚱한 추측을 하지 않습니다.

3. 왜 이 방법이 더 잘할까? (강화 학습의 마법)

이 AI 를 가르치는 과정은 3 단계로 이루어지는데, 마지막 단계가 가장 중요합니다.

  1. 예비 학습: AI 가 그림과 글의 관계를 기본적으로 익힙니다.
  2. 지도 학습: 정답이 있는 데이터를 보고 "분해 - 보기 - 추론"이라는 형식을 배웁니다.
  3. **강화 학습 **(RL) (이 부분이 핵심!)
    • 기존 방식은 정답을 알려주는 대로만 따라 했습니다 (스승이 시키는 대로만 하는 학생).
    • 하지만 DLR 은 스스로 실험을 허용합니다. "이렇게 시각 데이터를 추출하면 정답이 잘 나올까? 아니면 저렇게 추출해볼까?"라고 수천 번의 시뮬레이션을 통해 스스로 최적의 방법을 찾아냅니다.
    • 비유: 미로 찾기 게임에서, 지도를 보여주는 대신 "이 길을 가보면 벽에 부딪히네, 저 길은 출구가 보이네"라고 스스로 길을 찾아보게 훈련시키는 것입니다.

4. 실제 효과: "15,000 자의 망상 vs 100 자의 정확한 분석"

논문에서 소개된 사례를 보면 차이가 극명합니다.

  • 기존 AI: 그림을 보며 "아, 녹색 조각이 2 개네? 아니면 3 개? 아니면 각도가 다르네?"라고 15,000 자가 넘는 긴 글을 쓰며 혼란스러워하다가 결국 틀린 답을 냅니다. (눈을 감고 추측하는 탐정)
  • DLR: "녹색 조각의 상대적 위치가 중요해"라고 문제를 분해하고, 그 부분만 집중해서 확인한 뒤 "정답은 4 번"이라고 명확하게 답합니다. (눈을 뜨고 증거를 찾는 탐정)

요약

이 논문은 AI 가 그림을 볼 때, **단순히 그림을 텍스트로 바꾸는 것이 아니라, 문제를 작은 질문으로 쪼개고 **(분해)는 새로운 방식을 제시했습니다.

이는 마치 AI 에게 "눈을 감고 상상하지 말고, 문제를 하나씩 뜯어보고 증거를 찾아보라"고 가르친 것과 같아, 복잡한 수학 문제나 미묘한 시각적 차이를 구별하는 데서 기존 AI 들보다 훨씬 뛰어난 성능을 보여줍니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →