Measuring the Measurers: Quality Evaluation of Hallucination Benchmarks for Large Vision-Language Models
Diese Arbeit stellt mit HQM ein Framework zur Qualitätsbewertung von Halluzinations-Benchmarks für Large Vision-Language Models vor, identifiziert Mängel bestehender Evaluierungsmethoden und führt mit HQH einen zuverlässigen Benchmark ein, der schwerwiegende Halluzinationsprobleme aktueller Modelle aufdeckt.