IAG: Input-aware Backdoor Attack on VLM-based Visual Grounding
Este artigo apresenta o IAG, o primeiro ataque de backdoor multi-alvo adaptativo para modelos de linguagem e visão (VLMs) de grounding visual, que gera dinamicamente gatilhos imperceptíveis guiados por texto para redirecionar a localização de objetos para alvos específicos sem comprometer o desempenho em amostras benignas.