Benchmarking Few-shot Transferability of Pre-trained Models with Improved Evaluation Protocols

本文提出了包含 10 个多样化数据集的 FEWTRANS 基准及超参数集成(HPE)评估协议,揭示了预训练模型选择对少样本迁移性能起决定性作用,且全参数微调往往优于复杂适配算法,同时深入分析了其成功机制及多模态模型在特定领域的性能衰退原因。

Xu Luo, Ji Zhang, Lianli Gao, Heng Tao Shen, Jingkuan Song

发布于 2026-03-03
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是在给当前的"AI 小样本学习”领域做了一次**“体检”和“重新制定考试规则”**。

简单来说,现在的 AI 很聪明,只要给它看几张图(比如 5 张猫的照片),它就能学会识别猫。大家以前觉得,为了让 AI 学得更快、更好,我们需要发明各种复杂的“微调技巧”(就像给 AI 穿不同的鞋子)。但这篇论文的作者发现:以前的考试规则有问题,而且那些复杂的技巧其实并没有大家想象的那么神,最简单的方法反而往往最有效。

下面我用几个生动的比喻来拆解这篇论文的核心内容:

1. 以前的考试规则有多“坑”?(两大缺陷)

作者发现,以前大家测试 AI 时,就像是在玩**“抽奖”“作弊”**。

  • 缺陷一:“抽奖效应” (Sampling Lottery)

    • 比喻: 想象你要测试一个学生的数学水平。以前大家只随机抽 3 道题让他做。如果这 3 道题刚好是他最擅长的,他就得满分;如果刚好是他最弱的,他就得零分。
    • 问题: 因为题目太少,结果完全看运气。今天抽到的题简单,明天抽到的题难,AI 的排名就会乱跳。这根本测不出谁是真的强。
    • 论文做法: 作者搞了一个叫 FEWTRANS 的新考场。这里不是只考 3 道题,而是从 10 个不同的题库里,随机抽取6000 道不同的题目组合来考。这样就能消除运气成分,测出真正的实力。
  • 缺陷二:“验证集幻觉” (Validation Set Illusion)

    • 比喻: 以前测试 AI 时,为了选最好的“学习参数”(比如学习速度、训练时间),大家会偷偷给 AI 看很多额外的练习题(验证集)来调整。
    • 问题: 在现实世界里,我们往往只有几张照片(比如医生只有几张罕见病的片子),根本拿不出额外的练习题给 AI 练手。以前那种“先拿大量数据调优,再上考场”的方法,在真实的小样本场景下是行不通的
    • 论文做法: 作者提出了一种叫 HPE(超参数集成) 的新策略。
    • 比喻: 既然不知道哪种“学习速度”最好,那就让 AI 用 9 种不同的速度同时学习,最后把这 9 个结果“投票”合并成一个答案。这样就不需要额外的练习题来选参数了,而且能防止因为选错参数而“翻车”。这就像是一个**“全能顾问团”**,不管情况怎么变,他们总能凑出一个靠谱的答案。

2. 最惊人的发现:简单的“全量微调”才是王者

在建立了新规则后,作者重新测试了各种 AI 模型和算法,发现了一个反直觉的真相:

  • 现象: 大家之前发明了很多复杂的“参数高效微调”技术(比如 LoRA、Adapter 等),号称能省资源、效果好。但在 FEWTRANS 的严格测试下,这些复杂方法并没有比“笨办法”强多少
  • 笨办法是什么? 就是全量微调 (Full Fine-tuning)。也就是把 AI 脑子里的所有参数都打开,让它根据新任务重新调整。
  • 比喻: 以前大家觉得,给 AI 看几张新图,如果把它整个脑子都重调,肯定会“学傻”(过拟合)。但作者发现,全量微调就像是一个经验丰富的老工匠,面对新任务时,他并不是大刀阔斧地重建,而是进行极其细微的“微调”(Micro-adjustments)
    • 他保留了大脑里 99% 的通用知识(比如认识猫、狗、车)。
    • 只在最关键的深层神经元上做一点点极其微小的调整,专门适应新任务。
    • 结果: 这种“微调”既灵活又稳健,反而比那些只动一点点参数的“花哨技巧”效果更好,而且不容易“学傻”。

3. 为什么有些 AI 在特定领域会“翻车”?(语言 rarity)

作者还发现,多模态模型(能看图也能读文字的 AI,比如 CLIP)在遇到生僻领域时,表现会突然崩塌。

  • 比喻: 想象一个博学的教授(AI),他读过很多书,认识“苹果”、“香蕉”。但如果让他看**“某种罕见的真菌”“某种特定的植物病害”**,这些名字全是拉丁文或者极其生僻的术语。
  • 原因: 教授的大脑里(预训练数据)根本没有这些词。他看着图片,脑子里的“文字标签”却是一片空白(文本域偏移)。
  • 数据支撑: 作者用了一个叫“齐普夫定律”的指标来衡量词汇的稀有度。发现词汇越生僻,AI 的适应能力就越差
  • 结论: 在这种情况下,只有全量微调能救场。因为它能强行把视觉特征(图片)和那些生僻的文字标签重新“对齐”,而靠猜(零样本)或简单的提示词(Prompt)是行不通的。

4. 总结:这篇论文想告诉我们什么?

  1. 别被“花哨”骗了: 在数据很少的情况下,预训练模型本身的质量(是不是在大数据库上练出来的)比用什么复杂的微调算法重要得多。
  2. 回归简单: 很多时候,全量微调(把所有参数都调一调)就是最强、最稳健的方法,不需要搞那些复杂的“参数高效”技巧。
  3. 规则要公平: 以后研究 AI,不能再靠“抽几道题”或者“偷偷用大量验证集”来刷分了。必须用FEWTRANS这种大规模、无验证集依赖的严格标准来衡量。

一句话总结:
这篇论文给 AI 界立了一把**“新尺子”**,告诉大家:别再盲目追求复杂的技巧了,在数据稀缺的真实世界里,选个好底子(预训练模型),用最稳健的全量微调,才是王道。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →