Self-Correction Inside the Model: Leveraging Layer Attention to Mitigate Hallucinations in Large Vision Language Models

Este artigo apresenta o ICLA, um mecanismo de auto-correção interna que utiliza atenção entre camadas para refinar os estados ocultos durante a geração, mitigando efetivamente alucinações em Modelos de Linguagem Visuais Grandes (LVLMs) avançados sem depender de sinais de correção externos.

April Fu

Publicado 2026-03-03
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você tem um assistente de IA muito inteligente, capaz de "ver" imagens e responder perguntas sobre elas. Esse é o que chamamos de Modelo de Visão-Linguagem (LVLM). O problema é que, às vezes, esse assistente é um pouco "alucinado": ele vê um cachorro na foto e jura que é um gato, ou inventa detalhes que não existem, porque ele confia mais no que aprendeu na escola (o texto) do que no que está vendo na foto agora.

Até pouco tempo, os cientistas sabiam como ele errava. Era como se ele tivesse um "vício" de pensar demais ou de ignorar a imagem. Mas, com os modelos mais novos e inteligentes (como o Qwen2.5-VL-7B mencionado no texto), esses velhos truques de erro sumiram. Eles não erram mais da mesma forma previsível. E, pior ainda, as "correções" antigas que funcionavam nos modelos velhos agora só fazem os novos modelos ficarem piores, como tentar consertar um carro moderno com as ferramentas de um trator.

É aqui que entra a solução proposta neste artigo: o ICLA (Mecanismo de Auto-correção Interna usando Atenção de Camadas).

A Analogia: A Reunião de Equipes

Para entender como o ICLA funciona, imagine que o modelo de IA é como uma grande empresa com vários andares (camadas).

  1. O Problema (Antigo): Antigamente, o modelo funcionava como uma linha de montagem onde cada funcionário (camada) recebia o trabalho do anterior, fazia uma pequena alteração e passava adiante. Se o funcionário do último andar (a camada final) cometesse um erro, não havia como voltar e corrigir. Ele apenas entregava o resultado errado.
  2. O Novo Modelo (ICLA): O ICLA muda as regras da empresa. Agora, em cada andar, o funcionário tem um telefone direto para todos os andares anteriores.
    • Antes de tomar uma decisão final, o funcionário do andar atual liga para os colegas dos andares 1, 2, 3... até o anterior.
    • Ele pergunta: "Ei, vocês viram isso antes? O que vocês acharam?"
    • Ele reúne as melhores informações de todos os andares anteriores, filtra o que é relevante e corrige sua própria visão antes de passar a resposta adiante.

Como isso funciona na prática?

  • Sem "Alucinação" Externa: O modelo não precisa de um professor humano ou de outra IA para dizer "isso está errado". Ele mesmo se corrige internamente.
  • Foco no Momento Certo: O modelo é inteligente o suficiente para saber quem ligar. Ele não liga para todos os andares de qualquer jeito. Ele usa um "filtro" (chamado de atenção diagonal) para garantir que está comparando a mesma parte da imagem em diferentes momentos de processamento. É como se ele dissesse: "Vou perguntar ao andar 5 sobre o que ele viu exatamente no canto esquerdo da foto, não sobre o canto direito".
  • Leve e Rápido: A grande vantagem é que essa "reunião de correção" não custa quase nada. O modelo adiciona apenas uma quantidade minúscula de "cérebro extra" (menos de 0,2 milhões de parâmetros, o que é nada comparado aos bilhões que o modelo já tem). É como adicionar um pequeno bloco de notas a um supercomputador.

Os Resultados

Os autores testaram essa ideia em dois modelos: um mais antigo (LLaVA) e um supermoderno (Qwen2.5).

  • Nos modelos antigos, o ICLA funcionou muito bem, batendo todos os outros métodos de correção.
  • Nos modelos modernos, onde os métodos antigos falhavam e deixavam o modelo pior, o ICLA brilhou. Ele conseguiu fazer o modelo moderno ver a imagem com muito mais clareza, reduzindo as alucinações e melhorando a precisão nas respostas.

Resumo da Ópera

Imagine que você está tentando adivinhar o que há dentro de uma caixa fechada.

  • O modelo antigo: Tentava adivinhar baseado apenas no formato da caixa (o texto), ignorando o peso ou o som (a imagem).
  • O método antigo de correção: Era como alguém gritando de fora: "Ei, olhe a imagem!". Mas nos modelos novos, esse grito confundia o sistema.
  • O ICLA: É como se o próprio cérebro do modelo tivesse um "espelho interno". A cada passo do pensamento, ele olha para trás, revisa o que viu nos passos anteriores, ajusta a própria interpretação e só então dá a resposta final.

Em suma, o ICLA ensina o modelo a confiar mais em si mesmo e revisar seu próprio trabalho em tempo real, tornando-o muito mais confiável, especialmente nos modelos de IA mais avançados e complexos de hoje.