Meta-Adaptive Prompt Distillation for Few-Shot Visual Question Answering

该论文提出了一种名为“元自适应提示蒸馏”的方法,通过从任务相关的视觉特征中提取并蒸馏固定软提示,利用注意力映射模块在测试时进行元学习适配,从而在少样本视觉问答任务中显著提升了大型多模态模型的性能,克服了传统上下文学习在增加示例数量时性能不再单调提升的瓶颈。

Akash Gupta, Amos Storkey, Mirella Lapata2026-03-03💬 cs.CL