Causal Decoding for Hallucination-Resistant Multimodal Large Language Models

이 논문은 생성 과정에서 인과적 개입을 적용하여 시각적 환각을 유발하는 허위 의존성을 완화함으로써, 전체 출력 품질을 저하시키지 않으면서도 멀티모달 대규모 언어 모델의 객체 환각률을 획기적으로 줄이고 신뢰성을 향상시키는 '인과적 디코딩' 프레임워크를 제안합니다.

Shiwei Tan, Hengyi Wang, Weiyi Qin, Qi Xu, Zhigang Hua, Hao Wang

게시일 2026-02-26
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 Multimodal Large Language Models(멀티모달 대형 언어 모델, MLLM) 이 겪는 '환각 (Hallucination)' 문제를 해결하기 위한 새로운 방법, COAD를 소개합니다.

한마디로 요약하면: **"AI 가 그림을 볼 때, 자신이 상상한 것을 사실인 것처럼 말하지 않게 만드는 '현실 확인' 시스템을 도입한 방법"**입니다.

이 복잡한 내용을 일상적인 비유로 쉽게 설명해 드릴게요.


1. 문제: "AI 의 망상증" (할루시네이션)

우리가 AI 에게 "이 사진에 뭐가 있나요?"라고 물으면, AI 는 보통 아주 잘 대답합니다. 하지만 가끔 사진에 없는 물건을 만들어내서 말하기도 합니다.

  • 상황: 사진에는 '피자'와 '나이프'만 있습니다.
  • AI 의 반응: "피자 한 조각이 접시 위에 있고, 포크나이프가 옆에 있네요."
  • 실제: 사진에는 포크가 없습니다.

이런 현상을 **'할루시네이션 (환각)'**이라고 합니다. 마치 사람이 과거의 경험이나 기대감 때문에, 눈앞에 없는 것을 있는 것처럼 착각하는 것과 비슷합니다. AI 는 이전에 "나이프"라고 말했더니, 그 다음에 자연스럽게 "포크"도 있어야 할 것 같다고 생각해서 (문맥에 의존해서) 없는 포크를 만들어냅니다.

2. 기존 방법의 한계: "약한 처방전"

기존 연구자들은 이 문제를 해결하기 위해 다음과 같은 방법들을 썼습니다.

  • 더 많은 데이터 학습: AI 에게 더 많은 사진을 보여줘서 "포크가 없으면 말하지 마"라고 가르치기.
  • 말하기 전에 멈추게 하기: AI 가 말을 너무 길게 하거나 엉뚱한 말을 하면 강제로 끊기.
  • 외부 지식 검색: 인터넷에서 사실을 찾아보게 하기.

하지만 이 방법들은 완벽하지 않았습니다. 데이터가 아무리 많아도 AI 는 여전히 "나이프를 봤으니 포크도 있을 거야"라는 **착각 (편향)**을 버리지 못했습니다. 마치 "나이프를 본 사람은 포크를 좋아할 거야"라는 고정관념을 가진 사람처럼, AI 는 이미 말한 단어에 너무 의존하게 됩니다.

3. 해결책: COAD (인과적 객체 인식 해독)

이 논문은 "AI 가 그림을 볼 때, '내가 전에 말한 것'에 흔들리지 않고, 오직 '눈앞의 그림'에만 집중하게" 만드는 새로운 방식을 제안합니다. 이를 COAD라고 부릅니다.

🍕 비유: "현실 확인관 (Fact-Checker)"과 "작가 (AI)"

이 시스템을 두 명의 인물이 협력하는 방식으로 상상해 보세요.

  1. 작가 (기존 AI): 그림을 보고 이야기를 써내려갑니다. 하지만 이 작가는 때로 망상증에 걸려서, "나이프를 썼으니 포크도 써야지"라고 생각하며 없는 포크를 써버립니다.
  2. 현실 확인관 (객체 탐지기): 이 사람은 AI 와는 별개로, 순수하게 그림만 보고 "여기엔 피자, 사람, 오븐은 있지만 나이프와 포크는 없다"고 객관적으로 체크합니다.

COAD 의 핵심 아이디어:
기존에는 작가가 혼자서 "나이프 -> 포크"라고 연상하며 글을 썼다면, COAD 는 작가가 글을 쓸 때마다 '현실 확인관'의 보고서를 옆에 펼쳐놓고 쓰게 합니다.

  • 작가: "음... 피자 위에 나이가 있네. 그럼 포크도 있겠지?"
  • 현실 확인관: "잠깐! 내 보고서에는 포크가 없다고 적혀 있어. 그건 네가 상상한 거야."
  • 작가 (COAD 적용 후): "아, 그래. 포크는 없구나. 그럼 그냥 '피자가 잘려 있네'라고만 쓰자."

이처럼 AI 가 스스로 만들어낸 말 (이전 텍스트) 에 의존하는 경로를 차단하고, 실제 그림에서 감지된 정보 (객체) 만을 믿고 다음 단어를 선택하도록 만드는 것이 COAD 의 핵심입니다.

4. 어떻게 작동할까요? (기술적 원리)

논문에서는 이를 **'인과 관계 (Causality)'**라는 수학적인 개념으로 설명합니다.

  • 기존 방식: "이전 텍스트 (나이프)"가 "다음 텍스트 (포크)"를 직접 결정한다고 착각합니다. (실제로는 그림에 포크가 없는데도요.)
  • COAD 방식: "이전 텍스트"와 "다음 텍스트" 사이의 가짜 연결고리를 끊습니다. 대신 "그림 (실제 객체)"이 "다음 텍스트"를 결정하게 합니다.

이를 위해 AI 는 두 가지 모델을 동시에 사용합니다.

  1. 원래 AI: 일반적인 방식으로 답을 예측합니다.
  2. 수정된 AI: "현실 확인관"이 알려준 객체 정보 (포크 없음) 를 입력받고, 이에 맞춰 답을 예측합니다.

이 두 가지 예측을 수학적으로 섞어서 최종 답을 내는데, 이때 "현실 확인관"의 정보가 더 중요하게 반영되도록 설계했습니다.

5. 결과는 어떨까요?

실험 결과, COAD 를 적용한 AI 는 다음과 같은 성과를 보였습니다.

  • 환각 감소: 없는 물건을 만들어내는 경우가 기존 AI 보다 훨씬 줄었습니다. (예: 없는 포크를 말하지 않음)
  • 정확도 유지: 없는 물건을 말하지 않으면서도, 그림에 있는 것들은 여전히 정확하게 설명합니다.
  • 신뢰도 상승: 의료나 법률처럼 실수가 치명적인 분야에서 AI 를 쓸 때 더 믿을 수 있게 되었습니다.

6. 결론: 왜 이 연구가 중요한가요?

이 연구는 AI 가 "자신의 상상력"이 아니라 "눈앞의 사실"에 기반하여 말하도록 만드는 길을 열었습니다.

마치 망상증 환자를 치료하는 약처럼, AI 가 과거의 말에 휘둘리지 않고 현재 상황을 객관적으로 바라보게 함으로써, 우리가 AI 를 더 신뢰하고 실생활에 활용할 수 있는 기반을 마련한 것입니다.

한 줄 요약:

**"AI 가 그림을 볼 때, '생각'보다 '눈'을 믿게 만들어서, 없는 물건을 만들어내는 망상 (환각) 을 막아주는 새로운 시스템"**입니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →