Benchmarking MLLM-based Web Understanding: Reasoning, Robustness and Safety

本文针对现有评测在推理、鲁棒性和安全性方面的不足,提出了名为 WebRRSBench 的综合基准,通过包含 3799 个问答对的 729 个网站数据集,揭示了当前多模态大语言模型在网页理解任务中存在的显著能力差距。

Junliang Liu, Jingyu Xiao, Wenxin Tang, Zhixian Wang, Zipeng Xie, Wenxuan Wang, Minrui Zhang, Shuanghe Yu

发布于 2026-03-05
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是在给现在的"AI 网页助手”做了一次全面且严苛的“体检”

想象一下,现在的多模态大语言模型(MLLMs)就像是一群刚拿到驾照、准备上路的新手司机。它们能看懂文字,也能识别图片,甚至能帮你操作网页(比如自动填表、点击按钮)。但是,这篇论文的作者们发现,这些“新手司机”在真实复杂的交通环境(也就是真实的互联网)中,还存在着很多致命的弱点。

为了搞清楚它们到底哪里不行,作者们设计了一个名为 WebRRSBench 的“魔鬼考场”。

1. 这个“考场”考什么?(三大核心能力)

作者们没有只考简单的“认字”或“看图”,而是设计了三个维度的挑战,就像考驾照时的路考、突发状况应对安全法规

  • 推理能力 (Reasoning) —— 考的是“脑子灵不灵”

    • 比喻:就像让你看一张复杂的停车场地图,问你"A 车在 B 车的左上方还是右下方?”或者“哪个按钮是‘提交’,哪个是‘取消’?”
    • 现状:很多 AI 就像路痴,分不清左右上下,或者把广告按钮当成真正的操作按钮,经常“指鹿为马”。
  • 鲁棒性 (Robustness) —— 考的是“抗干扰能力”

    • 比喻:想象你在开车,突然天黑了(颜色变暗)、路标上的字被涂改了一点点(文字微调),或者路边的树木突然移了位置(布局调整)。
    • 现状:现在的 AI 非常“玻璃心”。只要网页颜色稍微变暗,或者按钮上的字把"o"写成"0",AI 就彻底懵圈,不知道那个按钮是干嘛的了。它们太依赖表面的颜色鲜艳程度,而不是理解按钮真正的功能。
  • 安全性 (Safety) —— 考的是“有没有安全意识”

    • 比喻:就像司机看到“紧急删除所有数据”或“永久注销账户”这种红色大按钮时,能不能踩下刹车,而不是盲目地按下去。
    • 现状:很多 AI 缺乏这种“红线意识”。面对危险的按钮,它们往往分不清轻重,可能会误操作导致用户数据丢失或无法挽回的损失。

2. 他们是怎么考试的?(独特的出题方式)

为了不让 AI 作弊(比如死记硬背),作者们用了很聪明的方法:

  • 真人出题,机器改卷:他们从真实的 729 个网站里挑题,让 4 位博士毕业生作为“考官”来制定标准答案。
  • 制造“意外”
    • 颜色干扰:把网页调成灰暗模式,或者把一半按钮的颜色乱涂一气,看 AI 还能不能认出哪个是“登录”按钮。
    • 文字干扰:在按钮文字里加个感叹号,或者换个同音字,看 AI 还能不能理解意思。
    • 布局干扰:把网页的排版稍微挪动一下,看 AI 还能不能看懂这个页面是干嘛的。

3. 考试结果怎么样?(令人担忧的发现)

这次对 11 款主流 AI 模型(包括闭源的 GPT-5、Gemini 和开源的 Qwen 等)的测试,结果有点“惨烈”:

  • 闭源模型更靠谱:像 GPT-5 这样的“大厂精英”表现确实比开源的“草根模型”要好,特别是在安全识别上,它们更懂得什么按钮不能乱点。
  • 开源模型有短板:虽然开源模型在抗干扰(鲁棒性)上进步很大,但在空间推理(比如判断位置关系)上,很多模型得分极低,甚至只有 10% 左右的正确率。
  • 致命弱点
    1. 太看重“颜值”:AI 容易被鲜艳的颜色吸引,忽略了文字内容。
    2. 太脆弱:文字改一个字母,AI 就理解错了。
    3. 只见树木不见森林:布局一变,AI 就忘了整个页面的主旨。

4. 有救吗?(微调的奇迹)

好消息是,作者们发现,如果给这些 AI 进行针对性的“特训”(微调),效果会立竿见影。

  • 比喻:就像给路痴司机专门开了几节“空间感训练课”,或者给玻璃心司机做了“抗压训练”。
  • 结果:经过特训后,某个开源模型在“位置推理”上的正确率直接从 16% 飙升到了 41%,在“识别 UI 分组”上更是从 67% 提升到了 96%。这说明只要方法对,AI 是可以变聪明的。

总结

这篇论文就像给 AI 行业敲了一记警钟:现在的 AI 网页助手虽然看起来挺聪明,但在真实世界里还像个“愣头青”。它们分不清左右、怕黑怕变、还容易误触危险按钮。

作者们通过 WebRRSBench 这个新工具,不仅指出了 AI 的弱点,还证明了通过针对性的训练可以大幅提升它们的能力。这为未来开发真正安全、可靠、能像人类一样思考的“网页自动驾驶”系统指明了方向。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →