Kestrel: Grounding Self-Refinement for LVLM Hallucination Mitigation

Kestrel es un marco libre de entrenamiento que mitiga las alucinaciones en modelos de lenguaje y visión grandes mediante un agente de anclaje visual explícito y un mecanismo de auto-refinamiento basado en evidencia verificada, logrando mejoras significativas en benchmarks de alucinación sin necesidad de reentrenamiento.

Jiawei Mao, Hardy Chen, Haoqin Tu, Yuhan Wang, Letian Zhang, Zeyu Zheng, Huaxiu Yao, Zirui Wang, Cihang Xie, Yuyin Zhou

Publicado 2026-03-18
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

Imagina que tienes un asistente de inteligencia artificial muy inteligente, capaz de ver fotos y responder preguntas sobre ellas. Llamémosle "El Experto". El problema es que, a veces, el Experto es un poco soñador: ve un perro en la foto y dice que es un gato, o inventa que hay un coche rojo cuando en realidad no hay ninguno. A esto los científicos le llaman "alucinación".

Normalmente, para arreglar esto, tendrías que enviar al Experto a una escuela costosa y larga para que aprenda de sus errores (entrenamiento). Pero eso es caro y lento.

Aquí es donde entra Kestrel.

¿Qué es Kestrel?

Kestrel no es un nuevo Experto, sino un sistema de verificación inteligente que funciona sin tener que volver a entrenar al modelo. Es como si le dieras al Experto un detective privado y una libreta de notas para que revise sus propias respuestas antes de entregártelas.

El nombre "Kestrel" viene de un halcón, un ave conocida por su visión aguda y su capacidad para cazar con precisión.

¿Cómo funciona? (La analogía del Detective y el Editor)

Imagina que el Experto te da una respuesta rápida sobre una foto. Kestrel entra en acción con un proceso de 4 pasos, como una película de detectives:

  1. Descomponer la historia (Inicialización):
    El Experto dice: "En la foto hay tres gatos rojos jugando con una pelota azul".
    Kestrel no se lo cree ciegamente. Descompone esa frase en pequeñas afirmaciones que se pueden verificar:

    • ¿Hay gatos?
    • ¿Son rojos?
    • ¿Son tres?
    • ¿La pelota es azul?
  2. El Detective busca pruebas (Agent Grounding):
    Aquí Kestrel llama a su socio, un detective visual (llamado SAM3). Este detective no usa su imaginación; va a la foto y busca literalmente lo que se pregunta.

    • Si pregunta por los gatos, el detective pone un recuadro alrededor de ellos y hace un "zoom" para ver mejor.
    • Si pregunta por el color, el detective mira de cerca la mancha de color.
    • Luego, el detective escribe un informe estructurado: "Confirmado: Hay 2 gatos. El color es naranja, no rojo. No hay pelota".
  3. El Juez revisa el caso (Verificación):
    Kestrel toma el informe del detective y se lo muestra al Experto (ahora actuando como un Juez).

    • Juez: "Dices que hay 3 gatos rojos. El detective dice que hay 2 naranjas. ¿Qué opinas ahora?"
    • El Experto compara su respuesta original con las pruebas concretas del detective. Si las pruebas son claras, el Juez dice: "Esta afirmación es falsa".
  4. La corrección prudente (Automejora):
    Aquí está la magia. A veces, los detectores se equivocan o la foto es borrosa. Si el detective no está 100% seguro, Kestrel no cambia la respuesta inmediatamente para evitar inventar cosas nuevas (lo que llaman "sobre-corrección").

    • Solo cambia la respuesta si las pruebas son fuertes y claras.
    • Si la respuesta sigue siendo dudosa, Kestrel pide al detective que busque más pruebas (otra ronda de zoom o búsqueda) y lo intenta de nuevo.

¿Por qué es genial?

  • Es un "No-Entrenamiento": No necesitas gastar miles de dólares entrenando al modelo. Solo le das estas herramientas de verificación.
  • Es transparente: No es una caja negra. Kestrel te muestra por qué cambió la respuesta: "Cambié 'gato rojo' a 'gato naranja' porque el detective hizo un zoom y vio que era naranja".
  • Es conservador: Es como un editor de texto muy cuidadoso. Prefiere dejar una frase tal cual si no está seguro, a cambiarla y empeorarla.

En resumen

Kestrel es como ponerle un sistema de "fact-checking" (verificación de hechos) a un artista muy creativo pero a veces soñador. En lugar de dejar que el artista invente cosas que no están en la foto, le da un microscopio y una lupa para que revise sus propios dibujos antes de mostrártelos.

El resultado es un asistente que alucina mucho menos, es más honesto sobre lo que ve, y te muestra exactamente en qué se equivocó y cómo lo corrigió. ¡Es como darle al Experto una conciencia y unas gafas de aumento!

¿Ahogado en artículos de tu campo?

Recibe resúmenes diarios de los artículos más novedosos que coincidan con tus palabras clave de investigación — con resúmenes técnicos, en tu idioma.

Probar Digest →