Healthy LLMs? Benchmarking LLM Knowledge of UK Government Public Health Information

本論文は、英国政府の公衆衛生ガイダンスに基づいて構築された新しいベンチマーク「PubHealthBench」を用いて 24 種類の LLM を評価した結果、最新のプロプライエタリモデルは多肢選択問題で人間を上回る精度を示したが、自由記述形式では 75% 以下の性能にとどまり、実用には追加の安全策が必要であることを明らかにしました。

Joshua Harris, Fan Grayson, Felix Feldman, Timothy Laurence, Toby Nonnenmacher, Oliver Higgins, Leo Loman, Selina Patel, Thomas Finnie, Samuel Collins, Michael Borowitz

公開日 2026-03-05
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

🏥 物語:「AI 医師」の試験

想像してください。イギリス政府は、国民の健康を守るための「公衆衛生ガイドライン」という、非常に重要な教科書を持っています。
最近、この教科書の内容をすべて暗記して、何でも答えてくれる「AI 医師」が現れました。しかし、この AI が**「本当に教科書の内容を正しく理解しているのか?」「間違ったことを言わないか?」**が心配でした。

そこで、イギリスの保健当局(UKHSA)は、この AI たちに対して**「公衆衛生の試験」**を実施しました。これがこの論文の内容です。

📝 試験の 2 つの形式

研究者たちは、AI の能力を測るために、2 種類の試験を行いました。

1. 選択式テスト(マークシート方式)

  • やり方: 「A. 正解、B. 不正解、C. 不正解...」と選択肢が 7 つある問題を出します。
  • 結果:
    • 最新の高機能 AI(GPT-4.5 など)は、90% 以上の正解率を叩き出しました。
    • これは、**「辞書や検索サイトを使って 2 分間調べた一般の人」**よりも上手に答えられました。
    • 結論: 「選択式なら、AI は教科書の内容をほぼ完璧に覚えている!」と言えます。

2. 自由記述テスト(口頭試験)

  • やり方: 選択肢はなし。「では、この病気はどう予防すればいいですか?」と自由に答えさせます。
  • 結果:
    • なんと、正解率は 75% を下回り、多くの AI は 50% 前後になってしまいました。
    • 選択肢がないと、AI は**「自信なさげに嘘をついたり(ハルシネーション)」、「重要なポイントを抜かしたり」**する傾向が見られました。
    • 結論: 「自由に喋らせると、AI は教科書から外れたことを言い出すリスクがある」ということがわかりました。

🔍 発見された「面白い」こと

  1. AI は「一般向け」の知識は得意、でも「専門向け」は苦手

    • 一般の人が読むような「手洗いの重要性」などのガイドラインは、AI がとても上手に答えました。
    • しかし、医師向けの「複雑な治療手順」などになると、正解率が下がりました。
    • 例え: AI は「お母さんへのアドバイス」は上手ですが、「外科医への手術マニュアル」は少し怪しいかもしれません。
  2. 「推理力」がある AI は、選択式ではあまり強くなかった

    • 複雑な論理思考ができるように設計された AI(o1 など)は、選択式テストでは普通の AI とあまり変わらない成績でした。
    • 例え: 「難解な数学の問題を解く天才」でも、「教科書の暗記テスト」では、ただの「暗記の得意な生徒」と大差ないということです。
  3. 小さな AI は危険

    • 高性能な AI に比べ、小さなモデル(パラメータ数の少ない AI)は、自由記述テストで**「30% 以下」**という悲惨な成績でした。
    • 例え: 小さな AI は、教科書の内容を「勘違いして覚えて」いる可能性が高く、医療 advice として使うには危険すぎます。

💡 この研究が教えてくれること(結論)

  • 良いニュース: 最新の AI は、イギリスの公衆衛生ガイドラインについて、驚くほど詳しく知っています。
  • 悪いニュース: しかし、**「自由に答えさせる」と、AI は自信満々に間違った情報(嘘)**を混ぜてしまうことがあります。
  • 今後の課題: AI を医療や健康のアドバイスに使う場合、**「AI が勝手に喋るのを防ぐ」か、「人間が最終確認をする」**といった安全装置(ガードレール)が絶対に必要です。

🌟 まとめ

この論文は、**「AI は公衆衛生の教科書を『暗記』するのは得意だが、『理解して自由に話す』のはまだ苦手」**と警告しています。

AI を健康相談に使うときは、**「AI が言ったことをそのまま信じるのではなく、必ず裏付けを取る」**という、私たち人間の「賢い使い方」が重要だと教えてくれています。