VisionZip: Longer is Better but Not Necessary in Vision Language Models

本文提出了 VisionZip,一种通过筛选视觉编码器中冗余信息来提取关键信息令牌的高效方法,该方法在保持甚至提升视觉语言模型性能的同时,显著降低了计算成本并大幅提升了推理速度。

Senqiao Yang, Yukang Chen, Zhuotao Tian, Chengyao Wang, Jingyao Li, Bei Yu, Jiaya Jia

发布于 2026-03-17
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文提出了一种名为 VisionZip 的新方法,旨在解决当前“视觉 - 语言模型”(VLM,即能看图说话的 AI)中一个非常浪费的问题:视觉信息的过度冗余

为了让你轻松理解,我们可以把现在的 AI 看图过程想象成**“让一个学生读一本极其冗长的说明书来回答一个问题”**。

1. 现状:为什么现在的 AI 这么慢且贵?

想象一下,你给 AI 看一张照片,并问它:“图里的人在做什么?”

  • 传统做法:现在的 AI(比如 LLaVA)会把这张照片切成几千个极小的碎片(Token),每一个碎片都变成一段文字描述,然后一股脑儿塞给大语言模型(LLM)去读。
    • 比喻:就像你为了告诉朋友“我在吃苹果”,却把苹果从种下、开花、结果到被咬的第一口、第二口……所有过程的几千个细节都写下来,让他读完几千字后再回答。
  • 问题
    1. 太慢了:AI 要处理几千个“文字碎片”,计算量巨大,就像让一个学生读几千页书才能回答一个问题,速度很慢。
    2. 太费钱了:处理这么多数据需要昂贵的显卡(GPU)和大量内存。
    3. 其实没必要:论文发现,这几千个碎片里,90% 以上都是废话。大部分碎片只是背景、天空或者重复的纹理,真正包含“苹果”这个关键信息的碎片只有几十个。

2. 核心发现:AI 其实只关注“重点”

研究人员观察了 AI 的“注意力机制”(就像人的视线聚焦),发现了一个有趣的现象:

  • 比喻:当你看一张图时,你的眼睛会自动聚焦在“人”或“苹果”上,而自动忽略背景里的云朵或草地。
  • 发现:现在的 AI 编码器(CLIP 等)在把图变成文字时,虽然生成了几千个词,但只有极少数几个词(Dominant Tokens)真正承载了核心信息,其他几千个词就像是一堆毫无意义的“背景噪音”。

3. 解决方案:VisionZip(视觉压缩)

VisionZip 就像是一个**“智能摘要员”“精读老师”**,它在把图片交给大语言模型之前,先做了一步“压缩”工作。

它的工作流程分为两步:

第一步:抓重点(Dominant Token Selection)

  • 做法:VisionZip 会先问 AI:“在这几千个碎片里,哪几个是你最关注的?”
  • 比喻:就像老师让你读一篇长文章,直接让你把加粗的标题和关键句挑出来,其他的废话直接删掉。
  • 结果:只保留那些真正包含核心信息的“主角”碎片。

第二步:合并同类项(Contextual Token Merging)

  • 做法:对于那些被删掉的、但可能包含一点点细节的碎片,VisionZip 不会直接扔掉,而是把它们合并
  • 比喻:如果有一片草地有 100 个碎片,每个都差不多,VisionZip 不会保留 100 个,而是把它们压缩成 1 个代表“草地”的碎片
  • 结果:既保留了细节,又大大减少了数量。

4. 惊人的效果:小模型也能跑赢大模型

通过这种“压缩”,VisionZip 带来了立竿见影的效果:

  • 速度飞起
    • 比喻:以前 AI 读图需要“读完 1000 页书”,现在只需要“读 100 页精华版”。
    • 数据:论文显示,使用 VisionZip 后,AI 的预填充时间(开始回答前的准备时间)快了 8 倍
  • 以小博大
    • 比喻:以前只有“博士”(13B 大模型)才能看懂复杂的图,现在用了压缩技术,连“本科生”(7B 小模型)都能看懂,而且13B 大模型用了 VisionZip 后,跑得比 7B 小模型还快,但理解得更深
  • 多轮对话更顺畅
    • 比喻:以前的方法在聊多轮天(比如先问图里有什么,再问那个人的衣服颜色)时,容易“断片”或记错,因为它之前存下的“记忆”里全是废话。VisionZip 存下的全是精华,所以多轮对话更聪明、更连贯

5. 总结:为什么要关注这个?

这篇论文告诉我们一个重要的道理:在 AI 领域,并不是“越多越好”(More is not always better)。

  • 以前的思路:为了更聪明,我就把图片切得更碎,给 AI 塞更多的数据。
  • VisionZip 的思路:数据太多反而有噪音。我们要学会**“去粗取精”**,只给 AI 看它真正需要的东西。

一句话总结
VisionZip 就像给 AI 戴上了一副“智能眼镜”,帮它自动过滤掉图片里的背景噪音,只把最核心的信息传给大脑。这让 AI 变得更快、更省钱、更聪明,甚至让原本跑不动的大模型也能在普通设备上流畅运行。

您所在领域的论文太多了?

获取与您研究关键词匹配的最新论文每日摘要——附技术摘要,使用您的语言。

试用 Digest →