VQA-MHUG: A Gaze Dataset to Study Multimodal Neural Attention in Visual Question Answering
Cet article présente VQA-MHUG, un nouveau jeu de données de regards humains sur les images et les questions, et démontre pour la première fois que la corrélation entre l'attention textuelle des modèles de VQA et celle des humains est un prédicteur significatif de leurs performances, soulignant ainsi le besoin d'améliorer les mécanismes d'attention textuelle dans les architectures multimodales.