SealQA: Raising the Bar for Reasoning in Search-Augmented Language Models

この論文は、検索結果が矛盾・ノイズ・無効であるような状況における検索拡張言語モデルの推論能力を評価する新たなベンチマーク「SealQA」を提案し、最先端のモデルさえもそのような環境で著しく低い性能を示すことを明らかにしています。

Thinh Pham, Nguyen Nguyen, Pratibha Zunjare, Weiyuan Chen, Yu-Min Tseng, Tu Vu

公開日 2026-03-06
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「SEALQA(シーアルクエ)」**という、非常にタフな新しいテスト(ベンチマーク)を紹介するものです。

一言で言うと、**「AI に『ネット検索』をさせても、正解にたどり着けるか?」**という、現代の AI の弱点を突く「試練のテスト」です。

まるで、**「荒れ狂う海で、正しい地図を見つけようとする航海」**のようなものです。


🌊 1. なぜこんなテストが必要なの?(背景)

これまでの AI のテストは、**「静かな図書館」**で本を引くようなものでした。
「誰がノーベル賞を取った?」「2+2 は?」といった、答えがはっきりしている質問です。最新の AI は、この図書館ではほぼ満点を取れるほど賢くなりました。

しかし、**「現実のインターネット」は違います。
検索をかけると、
「古い情報」「嘘の情報」「矛盾する情報」**がごちゃ混ぜで出てきます。

  • 「A さんが勝った!」という記事
  • 「いや、B さんが勝った!」という記事
  • 「実はまだ決まっていない」という記事

これらが混在する中で、**「どれが本当か?」**を見極め、矛盾を解きほぐして正解を出すのは、AI にとって非常に難しい「荒波」なのです。

🧪 2. SEALQA という「試練のテスト」

この論文の著者たちは、AI を試すために、あえて**「検索結果がごちゃごちゃで、答えが隠れている」**ような質問を 3 つのレベルで作りました。

🥊 レベル 1: SEAL-0(最強の壁)

  • どんなもの? 「今の最先端 AI でも、検索を使っても、ほぼ 0% の正解率」な問題です。
  • 例え話: 探偵が「犯人は誰か?」と聞かれても、現場には嘘つきが 10 人いて、全員が「犯人は私じゃない」と言い張るような状況です。AI は「えっ、どっちが本当?」とパニックになります。

🧗 レベル 2: SEAL-HARD(ハードモード)

  • どんなもの? 上記の「最強の壁」に加え、少しだけ答えが見えやすくなった問題群です。でも、依然として非常に難しいです。
  • 例え話: 嘘つきは 5 人に減りましたが、本物の証拠(正解)は、大量のゴミ(ノイズ)の中に埋もれています。

📚 レベル 3: LONGSEAL(「干し草の山から針を探す」)

  • どんなもの? 1 つの正解の文書と、50 個以上の「似ているけど間違っている」文書を混ぜて、AI に読ませます。
  • 例え話: 巨大な図書館(文脈)の中に、たった 1 冊の「正解の書」が隠されています。他の 50 冊は「それっぽいけど違う本」です。AI は「どこに正解があるか」を見つけ出す必要があります。

🔍 3. 実験結果:AI はどこでつまずいた?

最新の AI(GPT-5 や DeepSeek-R1 など)にこのテストをやらせたところ、**「驚くほど苦戦」**していました。

  • 📉 検索すると逆に悪くなる?
    面白いことに、「検索機能」を付けると、AI の正解率が下がることがありました。

    • 例え話: 料理をするとき、レシピ(検索結果)が「塩を 10 杯入れろ」とか「砂糖を 100 杯入れろ」とか、間違ったレシピをたくさん持ってきてしまったら、AI は「うーん、どれが正しいかな?」と迷ってしまい、**「何もしない(元の知識)」**よりも酷い料理を作ってしまうのです。
    • 特に「推論(考える)」が得意な AI ほど、間違った情報に引きずられて、「あ、これは違うな」と思いつつも、間違った結論に自信を持って導いてしまう傾向がありました。
  • 📈 時間をかけて考えてもダメ?
    「もっと計算リソース(考える時間)を掛ければ、もっと良くなるのでは?」という「テスト時のスケーリング」という手法を試しましたが、効果は限定的でした。

    • 例え話: 迷路で迷ったとき、**「もっと時間をかけて、何度も行ったり来たりしても、間違った道(ノイズ)に引っかかっているだけ」**で、出口にたどり着けないことがありました。
  • 📍 「真ん中」の問題は解決した?
    以前は「長い文章の真ん中の情報が見えない(Lost in the Middle)」という問題がありましたが、最新の AI はそこは克服していました。

    • しかし、**「正解がどこにあるか(重要度)」を見極める力はまだ弱く、「正解が最初にあっても、最後にあっても、大量のノイズに埋もれて見つけられない」**という新しい弱点が浮き彫りになりました。

🏁 4. 結論と今後の展望

この論文が伝えたいことはシンプルです。

「AI は『知識の詰め込み』は得意だが、『現実の荒波(ノイズ)』を乗り越える『賢さ』はまだ未熟だ」

  • 人間との差: 人間は 50% 程度の正解率で、AI はそれ以下(あるいは同等)でした。人間でも難しい問題ですが、AI は「検索結果のノイズ」に翻弄されすぎています。
  • 今後の課題: 単に「検索して答えを出す」だけでなく、**「検索結果の信頼性を判断し、矛盾を解消する」**という、より高度な「情報のフィルタリング能力」が、次の AI 進化の鍵となります。

💡 まとめ

この「SEALQA」は、AI に**「ネットの海で、嘘と真実を見分ける羅針盤」を持っているかを試すテストでした。
今の AI は、
「海図(知識)」は持っていますが、「荒波(ノイズ)」に揉まれて、針(正解)を見失ってしまう**ことがわかりました。

これからの AI 開発は、**「より賢く検索し、より賢く疑う」**能力を磨くことが重要だと示唆しています。