SealQA: Raising the Bar for Reasoning in Search-Augmented Language Models

本文提出了名为 SealQA 的新基准,旨在评估搜索增强型语言模型在应对网络搜索冲突、噪声及长文档干扰时的推理能力,并揭示了当前前沿模型(包括 o3 等)在此类高难度事实性问答任务中表现普遍不佳且增加推理计算量难以带来显著提升的局限性。

Thinh Pham, Nguyen Nguyen, Pratibha Zunjare, Weiyuan Chen, Yu-Min Tseng, Tu Vu

发布于 2026-03-06
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文介绍了一个名为 SEALQA 的新“考试”,专门用来测试现在的 AI 大模型(LLM)在上网搜索信息时,到底聪不聪明、靠不靠谱。

想象一下,现在的 AI 就像是一个超级学霸,它肚子里装着海量的知识(训练数据)。但是,当它遇到不知道的问题时,它需要去“图书馆”(互联网)查资料。SEALQA 这个考试的目的,就是故意给这个学霸制造一些混乱、矛盾甚至充满误导的图书馆环境,看看它能不能在乱糟糟的信息堆里找到真正的真理。

以下是用通俗语言和比喻对这篇论文的解读:

1. 为什么要搞这个考试?(背景)

以前的考试(比如 MMLU)就像是在考“死记硬背”。现在的 AI 太聪明了,这些题都能拿 90 分以上,就像让一个已经背熟了所有课本的学生做小学奥数,太简单了,测不出真本事。

但在现实生活中,上网搜东西往往不是“搜什么得什么”。

  • 现实情况:你搜一个新闻,可能看到三个互相矛盾的说法;或者看到一篇过时的文章,或者看到一堆看起来很像但其实是广告/谣言的内容。
  • SEALQA 的挑战:它模拟的就是这种**“信息污染”的环境。它出的题目,如果 AI 只是简单地“搜一下,把第一条结果抄下来”,那肯定答错。AI 必须像侦探**一样,去比对、去推理、去识破谎言。

2. 这个考试分哪三种“难度模式”?

SEALQA 把题目分成了三个等级,就像游戏的三个关卡:

  • 关卡一:SEAL-0(地狱级·核心挑战)

    • 比喻:这是给“顶级学霸”准备的陷阱题。出题人故意设计了一些问题,让目前最厉害的 AI(比如 GPT-4.1)在上网搜索后,准确率几乎为0%
    • 特点:题目里充满了矛盾信息。比如问“哪家公司最近市值破了 1 万亿?”,搜索结果里可能有一家是对的,但另外三家看起来很像,而且说得头头是道,AI 很容易被带偏。
    • 现状:即使是最新的 GPT-5,在这个关卡上也只考了 43.2 分(满分 100),说明它还在“挂科”边缘。
  • 关卡二:SEAL-HARD(困难级·广泛挑战)

    • 比喻:这是**“困难模式”**的题库,包含了 SEAL-0 的所有陷阱,还加了一些虽然没难到让 AI 全错,但依然非常棘手的题目。
    • 特点:涵盖了科学、体育、政治等各个领域,专门测试 AI 能不能区分相似的人或事,或者能不能处理随时间变化的信息(比如“谁最近刚拿了奖”)。
  • 关卡三:LONGSEAL(大海捞针级·长文本挑战)

    • 比喻:想象给你50 本书,其中只有1 页藏着答案,其他 49 本书全是废话或者故意误导你的。AI 需要在一堆垃圾信息里把那一页“针”找出来。
    • 现状:现在的 AI 虽然比以前更擅长读长文章了,但在这么多干扰项面前,依然经常找不到重点,或者被旁边的“噪音”带跑偏。

3. 考试发现了什么惊人的秘密?(主要发现)

研究人员让各种 AI 模型(包括 OpenAI 的 GPT 系列、Google 的 Gemini、Meta 的 Llama 以及 DeepSeek 等)来考,结果发现了一些有趣的现象:

  • 🔍 越聪明的模型,越容易“想太多”而掉坑

    • 比喻:有些高级 AI 就像是一个过度思考的侦探。当它看到网上有矛盾的信息时,它试图用复杂的逻辑去推理,结果反而被那些精心设计的假线索绕晕了。
    • 例子:DeepSeek-R1 这种以“推理能力强”著称的模型,在遇到嘈杂的搜索结果时,准确率反而比不搜索时还低。它太想“分析”了,结果被误导了。
  • 📉 增加算力(让 AI 多思考一会儿)并不总是有用

    • 比喻:以前大家觉得,让 AI 多花点时间思考(Test-time scaling),就像让学生多读几遍题,成绩肯定会提高。
    • 发现:但在 SEALQA 里,多思考没用,甚至有害。让 GPT-5 或 O3 模型花更多时间推理,成绩并没有提升,反而有时候因为思考太久,把错误的线索当成了真理,分数反而下降了。这说明如果方向错了,跑得越快(想得越多)离真相越远。
  • 🌍 跨语言和时间是弱项

    • 比喻:AI 就像是一个只精通英语的留学生。如果题目要求它去读一篇法语中文的新闻来回答问题,或者问它今年刚发生的事,它往往就懵了。
    • 发现:在涉及多语言推理或需要最新鲜知识的题目上,AI 的表现非常糟糕。
  • 👥 人类依然更强

    • 比喻:虽然 AI 很厉害,但在这个混乱的“信息战场”上,人类专家(研究生水平的研究人员)的表现依然比最好的 AI 要好得多。
    • 数据:人类在“开卷考试”(可以随便搜)中的平均正确率是 38.8%,而在“有提示的考试”(只给关键链接)中能达到 50.4%。而最好的 AI 模型(O3-HIGH)在开卷考试中只有 28%。这说明 AI 在辨别信息真伪处理冲突方面,离人类还有很大差距。

4. 总结:这篇论文想告诉我们什么?

这篇论文就像给 AI 行业泼了一盆冷水,但也指明了方向:

  1. 现在的 AI 并不像我们想象的那么“全能”。它们在面对真实世界那种混乱、充满噪音的搜索环境时,非常脆弱。
  2. 简单的“搜索 + 回答”模式行不通了。未来的 AI 不能只是会搜,必须学会批判性思维,学会像人类一样去质疑、去交叉验证信息的真伪。
  3. 不要盲目迷信“加大算力”。如果模型本身的逻辑有缺陷,让它花更多时间思考,只会让它更固执地犯错。

一句话总结
SEALQA 就像是一个**“反诈骗测试”,它告诉我们要警惕那些看似聪明、实则容易被假新闻带偏的 AI。真正的智能,不仅仅是知道答案,更是在一堆谎言和矛盾中找到真相**的能力。