Dynamic Multimodal Activation Steering for Hallucination Mitigation in Large Vision-Language Models

이 논문은 대형 시각 - 언어 모델의 환각 문제를 해결하기 위해 진실성과 시각 지각 능력이 서로 다른 어텐션 헤드를 사용하며 진실성 조향 벡터가 문맥에 따라 달라진다는 발견을 바탕으로, 훈련 없이 입력의 의미적 유사성에 따라 가장 영향력 있는 어텐션 헤드를 대상으로 동적으로 조향 벡터를 선택하여 적용하는 '동적 멀티모달 활성화 조향' 방법을 제안하고 그 유효성을 입증합니다.

Jianghao Yin, Qin Chen, Kedi Chen, Jie Zhou, Xingjiao Wu, Liang He

게시일 2026-02-26
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

거대 시각 - 언어 모델의 '환각'을 치료하는 새로운 방법: DMAS

이 논문은 최근 화제가 되고 있는 **거대 시각 - 언어 모델 **(LVLM)의 치명적인 약점인 **'환각 **(Hallucination) 문제를 해결하는 새로운 방법을 제안합니다.

쉽게 말해, 이 모델들은 그림을 보고 설명할 때 "없는 물건을 있는 것처럼 말하거나", "있는 물건을 잘못 묘사하는" 실수를 자주 합니다. 마치 눈이 좋은데도 뇌가 착각을 일으켜 없는 사물을 보거나, 실제 사물의 색을 다르게 기억하는 것과 비슷합니다.

이 논문은 이 문제를 해결하기 위해 **모델을 다시 학습 **(재훈련)하는 획기적인 방법을 제시합니다.


🧐 문제: 왜 모델은 '환각'을 볼까요?

연구자들은 모델의 내부 (특히 '주의 집중'을 담당하는 부분) 를 자세히 들여다보며 두 가지 놀라운 사실을 발견했습니다.

  1. 진실성과 시각 인지는 다른 부서가 담당합니다:

    • 모델이 "이게 사실인가?"를 판단하는 부분과 "이게 무슨 그림인가?"를 보는 부분은 서로 다른 뇌 세포 (어텐션 헤드) 를 사용합니다.
    • 비유: 마치 한 회사에서 **감사팀 **(진실성)과 **디자인팀 **(시각)이 완전히 다른 부서에서 일하는 것과 같습니다.
  2. 상황에 따라 '진실'의 기준이 달라집니다:

    • "사과"에 대한 진실과 "자동차"에 대한 진실은 서로 다른 방식으로 모델에 저장되어 있습니다.
    • 비유: 모든 상황에 똑같은 **법전 **(정해진 규칙)을 적용하는 것은 비효율적입니다. 상황 (맥락) 에 따라 다른 법률 전문가를 불러야 합니다.

기존 방법들은 이 복잡한 상황을 무시하고 "한 가지 고정된 규칙"을 모든 상황에 적용하려다 보니 효과가 제한적이었습니다.


💡 해결책: DMAS (동적 다중 모드 활성화 조향)

저자들은 이 문제를 해결하기 위해 DMAS라는 방법을 개발했습니다. 이 방법은 마치 스마트한 교정 코치가 모델의 말하기 과정을 실시간으로 도와주는 것과 같습니다.

1. '진실성 지도'를 만든다 (데이터베이스 구축)

  • 연구자들은 먼저 다양한 주제 (동물, 사물, 상황 등) 로 데이터를 **4 개의 그룹 **(클러스터)으로 나눕니다.
  • 각 그룹마다 "사실"인 답변과 "거짓"인 답변을 비교하여, 어떤 상황에서 모델이 헛소리를 하는지를 분석합니다.
  • 그리고 각 그룹에 맞는 **최고의 '진실성 코치' **( steering vector)를 만들어 데이터베이스에 저장해 둡니다.
    • 비유: "동물에 관한 질문이 들어오면 동물 전문가 코치, 자동차 질문이면 자동차 전문가 코치"를 미리 준비해 두는 것입니다.

2. '시각 코치'도 준비한다

  • 모델이 그림을 제대로 보지 못할 때 (예: 노이즈가 섞인 그림), 모델이 어떻게 반응하는지 분석하여 시각을 선명하게 하는 코치도 준비합니다.

3. 실시간으로 '맞춤형 코칭'을 한다 (동적 개입)

  • 사용자가 질문을 하면, 모델은 **질문의 내용 **(의미)을 분석합니다.
  • 그다음, 미리 준비된 가장 적합한 '진실성 코치'를 데이터베이스에서 찾아냅니다.
  • 그리고 모델이 답변을 생성하는 순간, **가장 중요한 뇌 세포 **(어텐션 헤드)에 코치의 지시를 전달하여 "거짓말하지 말고, 그림을 정확히 봐!"라고 실시간으로 교정합니다.

🚀 왜 이 방법이 특별한가요?

  1. **학습이 필요 없습니다 **(Training-free)

    • 기존 방법들은 모델을 다시 학습시키려면 엄청난 비용과 시간이 들었습니다. 하지만 이 방법은 이미 훈련된 모델을 그대로 사용하면서, 답변을 내는 순간에만 코칭을 해줍니다. 마치 유명 요리사에게 요리할 때만 '소금 양 조절 팁'을 알려주는 것과 같습니다.
  2. **상황에 맞춰 변합니다 **(Dynamic)

    • 고정된 규칙을 쓰는 대신, 질문의 맥락에 따라 가장 적절한 코치를 불러옵니다. 그래서 어떤 질문이 들어와도 유연하게 대처합니다.
  3. 눈과 뇌를 동시에 다스립니다:

    • 단순히 "거짓말하지 마"라고만 하는 게 아니라, "그림을 더 잘 봐"라는 시각적 교정도 동시에 수행합니다.

📊 결과는 어떨까요?

실험 결과, 이 방법은 기존 최고의 방법들보다 훨씬 뛰어난 성과를 보였습니다.

  • **MME **(다양한 능력 평가) 점수가 94 점이나 올랐습니다. (기존 최고 기록을 크게 깨뜨림)
  • **CHAIR **(환각 평가) 모델이 만들어낸 거짓말 (환각) 이 20% 이상 감소했습니다.
  • 속도: 학습을 다시 하지 않기 때문에, 답변을 내는 속도도 매우 빠릅니다.

🎯 결론

이 논문은 거대 AI 모델이 **눈을 감고 (시각 무시) 상상만 하는 **(환각) 문제를, 상황에 맞는 맞춤형 코칭으로 해결했습니다.

마치 **AI 에게 "질문하는 주제에 따라 가장 똑똑한 감시관과 시각 전문가를 실시간으로 배치"**하여, 거짓말을 하지 않고 그림을 정확히 묘사하도록 만든 셈입니다. 이는 AI 가 자율주행, 로봇 등 안전이 중요한 분야에서 더 신뢰할 수 있게 쓰일 수 있는 중요한 한 걸음입니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →