Evaluating LLM-Based Grant Proposal Review via Structured Perturbations

EPSRC の助成金申請書 6 件を用いた構造的摂動評価により、LLM による審査はセクション別分析が最も有効である一方、現状では完全な代替ではなく補完的な役割に留まり、明瞭さの欠陥の検出や評価の優先順位に課題があることを明らかにしました。

William Thorne, Joseph James, Yang Wang, Chenghua Lin, Diana Maynard

公開日 Tue, 10 Ma
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「AI(大規模言語モデル)が、将来の研究プロジェクトにお金を配る審査役(審査員)になれるか?」**という問いに答える実験レポートです。

研究費の申請が増えすぎて人手が追いつかない現代において、AI に審査を任せることは可能なのか?それを調べるために、著者たちは「AI の弱点を突くテスト」を行いました。

以下に、専門用語を排し、わかりやすい比喩を使って解説します。


1. 背景:「申請地獄」というジレンマ

今、世界中で研究費の申請が急増しています。まるで**「レストランの注文が殺到して、料理人(審査員)が追いつかない状態」**です。
一方、申請者側は AI を使って文章を洗練させたりアイデアを出したりできるようになりました。しかし、審査員は「AI を使ってはいけない」というルールがあります。
**「申請者は AI を使って『完璧な料理』を提案し、審査員は『人間の味覚』だけでそれを見極めなければならない」**という不公平な状況が生まれています。もし審査員も AI を使えば、もっと公平で速い審査ができるのではないか?というのがこの研究の動機です。

2. 実験方法:「あえて欠陥を作った料理」でテストする

研究費の申請書は機密事項が多く、AI の学習データには含まれていません。そのため、AI の審査能力を測るための「正解データ」がありません。

そこで著者たちは、「6 枚の本当の申請書」を用意し、あえて「欠陥」を仕込みました。
これを**「 Perturbation(摂動)」と呼びますが、わかりやすく言うと「あえて料理に毒を入れたり、レシピの分量を間違えたりする」**ようなものです。

  • 予算の欠陥: 必要ないのに高級食材を買いすぎた。
  • スケジュールの欠陥: 1 年で 10 年分の仕事を終わらせようとしている。
  • チームの欠陥: 料理人がいないのに「プロの料理人チーム」と書いている。
  • 不明瞭さ: 専門用語を説明せずに使っている。

そして、AI 審査員に「この申請書は良いか?悪い点を指摘せよ」と頼み、**「あえて入れた欠陥に気づけたか?」**をテストしました。

3. 審査の 3 つのスタイル

AI に審査させる際、3 つの異なる「やり方」を試しました。

  1. 一発勝負(Baseline): 申請書全体を一度に読んで、一発で評価する。
    • 例: 料理の全メニューを一度に見て、「まずい」と一言で言う。
  2. 項目別チェック(Section-Level): 申請書を「予算」「チーム」「計画」などに分けて、一つずつ詳しく読む。
    • 例: まず「予算」だけ見て、次に「チーム」だけ見て、最後に「計画」を見る。
  3. 専門家パネル(Council of Personas): 5 人の異なる性格の AI(「お金に厳しい人」「技術オタク」「倫理担当」など)にそれぞれ審査させ、最後にまとめ役が意見を集約する。
    • 例: 5 人の料理評論家にそれぞれ試食させ、意見を集めて結論を出す。

4. 実験結果:意外な発見

結果は、直感とは少し違いました。

  • 🏆 優勝は「項目別チェック」

    • 全体を一度に読むよりも、**「分けて一つずつ詳しく見る」**方法が、欠陥を見つける能力と点数の安定性で圧倒的に優れていました。
    • 理由: 長い文章を一度に読むと、AI は「要約」や「全体像」に気を取られ、細かい矛盾を見逃してしまうからです。
  • 💸 高コストな「専門家パネル」は失敗

    • 5 人の AI に審査させてまとめさせる方法は、計算コスト(時間とお金)が非常に高いのに、結果は「一発勝負」と同じくらいでした。
    • 理由: 複数の AI に任せても、根本的な「見落とし」が解消されなかったようです。
  • 👀 見つけたもの・見逃したもの

    • 見つけた: 「予算と計画の不一致」や「申請趣旨とのズレ」などは、AI はよく見つけました。
    • 見逃した: **「文章の不明瞭さ(わかりにくさ)」**は、ほぼ見逃されました。
      • 比喩: AI は「レシピに『適量』と書いてあるだけで、具体的なグラム数が書かれていないこと」には気づきません。AI は「文脈から推測して補完する」のが得意なので、「何が書いてあるか」ではなく「何が書いてあるか」を疑うのが苦手なのです。

5. 結論:AI は「助手」にはなれるが「審査員」にはなれない

この研究からわかったことは以下の通りです。

  • AI は「チェックリスト係」としては優秀。
    • 「予算が規定を超えているか」「チームに資格がないか」といったルール違反や明らかな矛盾を見つけるのは得意です。
  • AI は「総合評価」が苦手。
    • 「この研究は本当に社会に役立つか?」「このチームは本当に成功するか?」という人間ならではの直感や文脈の読み取りは、まだ人間に及びません。
  • 文章の「わかりにくさ」には弱い。
    • 申請書が難解で読みにくい場合、AI は「まあ、意味は通じるだろう」とスルーしてしまいます。

まとめ

この論文は、**「AI 審査員をそのまま導入するのは危険だが、人間の審査員を助ける『補助ツール』としては非常に有望」**だと結論付けています。

まるで**「AI は優秀な『下書きチェック係』や『ルール違反発見係』にはなれるが、最終的な『味見をして味付けを決める料理長』にはまだなれない」**という状態です。

今後は、AI が「ここが不明確です」と人間に警告し、人間が最終判断を下すという**「AI と人間のタッグ」**が、研究費審査の未来の形になるでしょう。