Restoring Linguistic Grounding in VLA Models via Train-Free Attention Recalibration
Dit paper introduceert IGAR, een train-vrije methode die de 'taalkundige blindheid' in Vision-Language-Action-modellen oplost door de aandacht tijdens de inferentie te herkalibreren, zodat robots instructies correct volgen zelfs bij tegenstrijdige visuele prikkels.