Quant Experts: Token-aware Adaptive Error Reconstruction with Mixture of Experts for Large Vision-Language Models Quantization

本文提出了 Quant Experts (QE) 方法,通过结合针对全局误差的共享专家与针对特定 Token 局部误差的路由专家,实现了大视觉语言模型在无需重训练情况下的自适应误差补偿与高效量化。

Chenwei Jia, Baoting Li, Xuchong Zhang, Mingzhuo Wei, Bochen Lin, Hongbin Sun

发布于 2026-03-02
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文介绍了一种名为 Quant Experts (QE) 的新方法,旨在解决大型“视觉 - 语言模型”(VLMs,比如能看图说话的 AI)在压缩(量化)过程中遇到的难题。

为了让你更容易理解,我们可以把整个过程想象成一家超级繁忙的“全能翻译事务所”

1. 背景:为什么要压缩?(事务所的困境)

现在的 AI 模型(如 Qwen2VL)非常强大,但它们太“重”了,就像一家拥有成千上万名顶级翻译员的超级事务所。

  • 问题:这些翻译员(模型参数)太占地方(内存大),工作太慢(计算慢),普通电脑根本跑不动。
  • 常规做法(量化):为了省钱省地,老板决定给所有翻译员“降级”。比如,把原本用“精确到小数点后 10 位”的词汇,改成只记“大概意思”(低比特量化)。
  • 副作用:虽然省了资源,但翻译质量下降了。有些翻译员因为记性不好,把关键信息(比如“红色”说成“蓝色”)搞错了,导致整个翻译(AI 回答)变得很烂。

2. 现有方法的缺陷:死板的“一刀切”

以前的压缩方法(如 SmoothQuant, MBQ)就像是一个死板的工头

  • 工头的逻辑:他发现某些翻译员(通道)特别容易出错(异常值),于是给这些特定的翻译员发“特殊备忘录”(静态补偿),告诉所有人:“不管谁来翻译,只要遇到这个词,就按这个备忘录改。”
  • 缺点:这个备忘录是固定不变的。
    • 但在实际工作中,不同的客户(输入数据),甚至同一个客户说的不同句子(不同的 Token),需要的重点完全不同。
    • 有时候“红色”很重要,有时候“蓝色”才关键。死板的备忘录无法应对这种千变万化的情况,导致翻译还是经常出错。

3. 核心发现:重要的人,随情况而变

作者通过观察发现了一个有趣的现象:

  • 重要翻译员的位置是流动的:在处理“图片”时,可能 A 翻译员最重要;在处理“文字”时,B 翻译员最重要;甚至在同一张图片里,描述“猫”时 C 重要,描述“车”时 D 重要。
  • 频率不同:有些翻译员(通道)几乎每次都在场且很重要(全局重要);而有些翻译员只在特定情况下才出场且至关重要(局部重要)。

4. 解决方案:Quant Experts (QE) —— 智能的“专家团”

作者提出了一种新的管理策略,叫 Quant Experts (QE)。这就像把死板的工头换成了一个智能的“专家调度系统”,引入了“混合专家模型”(Mixture of Experts, MoE)的概念。

这个系统把“容易出错的翻译员”分成了两类,并配备了两种不同的“纠错专家”:

A. 共享专家 (Shared Expert) —— 处理“老熟人”

  • 对象:那些无论谁来、说什么,都经常在场且很重要的翻译员(Token-independent channels)。
  • 做法:事务所里常驻一位全能老专家。不管谁进来,这位老专家都负责修正这些“老熟人”带来的通用错误。
  • 比喻:就像事务所里有一位资深顾问,专门负责处理那些永远存在的语法错误。

B. 路由专家 (Routed Experts) —— 处理“临时工”

  • 对象:那些只有在特定语境下才重要的翻译员(Token-dependent channels)。
  • 做法:事务所里还有一组特种专家团(比如:图片专家、文字专家、情感专家等)。
    • 当客户进来时,一个智能调度员(Router) 会迅速分析客户说的话(输入 Token)。
    • 如果客户在聊“风景”,调度员就立刻呼叫“图片专家”来修正错误。
    • 如果客户在聊“代码”,调度员就呼叫“代码专家”。
  • 比喻:这就像医院里的分诊台。病人来了,分诊台判断是“感冒”还是“骨折”,然后精准地把病人送到对应的专科医生那里,而不是让所有医生都来瞎忙活。

5. 结果:既快又好

通过这种“固定老专家 + 动态特种专家”的组合:

  • 精度恢复:即使在极度压缩(比如把数据压缩到原来的 1/4 甚至更少)的情况下,AI 的翻译质量(准确率)也能恢复到接近未压缩(全精度) 的水平。
  • 效率:虽然增加了一点点调度工作,但相对于提升的质量,这点开销微不足道。
  • 实测:在 20 亿到 720 亿参数的各种大模型上测试,QE 方法都比以前的方法更聪明,尤其是在处理复杂的看图说话任务时,准确率提升了显著(最高提升 5% 以上)。

总结

Quant Experts (QE) 的核心思想就是:不要试图用一把钥匙开所有的锁。

以前的压缩方法是“一把钥匙(静态规则)开所有锁”,结果很多锁打不开。
QE 的方法是:

  1. 准备一把万能钥匙(共享专家)解决大部分通用问题。
  2. 再准备一套智能钥匙串(路由专家),根据当前要开的锁(输入内容),自动挑选最合适的那把钥匙。

这样,AI 模型就能在变得“轻便”的同时,依然保持“聪明”和“精准”。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →