Understanding the Interplay between LLMs' Utilisation of Parametric and Contextual Knowledge: A keynote at ECIR 2025

この ECIR 2025 の基調講演では、大規模言語モデルが事前学習で獲得したパラメトリック知識と検索された文脈知識の相互作用、特に両者の矛盾やモデルが文脈を無視する現象を解明するための評価手法や診断テストに関する研究が紹介されます。

Isabelle Augenstein

公開日 Wed, 11 Ma
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、2025 年の ECIR 会議で行われた基調講演の要約です。スピーカーはコペンハーゲン大学のイザベル・オーゲンスタイン教授です。

この研究は、**「巨大な AI(大規模言語モデル)が、自分の頭(記憶)と、外から持ってきた情報(文脈)のどちらを信じるべきか、そしてどうやって決めているのか」**という、とても重要な謎を解き明かそうとするものです。

難しい専門用語を使わず、日常の例え話を使って解説します。


🧠 1. AI の「頭」と「手帳」の戦い

まず、AI には 2 つの知識の持ち方があります。

  1. パラメトリック知識(頭の中の記憶):
    • これは、AI が勉強(学習)した時に、自分の脳みその重さ(重み)の中に刻み込んだ知識です。
    • 例え話: 昔から住み慣れた家の「記憶」や「勘」。
  2. コンテクスト知識(持ってきた手帳):
    • これは、AI に質問する時に、一緒に渡された「参考資料」や「検索結果」です。
    • 例え話: 今、手に持っている「最新のニュース記事」や「手帳」。

問題点:
AI は、この 2 つが**「矛盾している時」**にどう振る舞うかがよく分かっていません。

  • 「頭の中の記憶」が「日本の首都は東京」と言っているのに、「手帳」に「日本の首都はストックホルム」と書いてあったら、AI はどちらを信じるのでしょうか?
  • 実は、AI は**「手帳(新しい情報)」よりも、自分の「記憶(古い知識)」の方を頑なに信じてしまう**ことが多いのです。

🔍 2. 研究の 3 つの大きな発見

オーゲンスタイン教授の研究チームは、この「記憶と手帳の戦い」を詳しく調べるために、3 つの面白い実験を行いました。

① 脳のどこが働いているか?(アトリビューション)

  • どんな実験?
    AI が「なぜその答えを出したのか」を、脳のどの部分(ニューロン)が働いたかで追跡しました。
  • 発見:
    「特定の脳の部分だけが知識を持っている」という従来の説は違うかもしれません。むしろ、**「注意を向ける部分(アテンション)」**が知識の整理に重要かもしれません。
    また、AI に「重要な過去の勉強ノート」だけを見せて学習させても、ランダムなノートを渡すのとあまり変わらない結果になりました。AI は「バラエティに富んだ情報」を好むようです。

② 「動かない事実」ほど騙されやすい?(矛盾の発見)

  • どんな実験?
    「日本の首都は東京」という変わらない事実と、「今日の天気」や「政治の意見」のように変わる事実を混ぜて、AI に新しい情報(手帳)を見せてみました。
  • 驚きの発見:
    直感に反して、「変わらない事実(日本の首都など)」の方が、新しい情報(手帳)に簡単に騙されてしまいました。
    • 「日本の首都はストックホルムだよ」という嘘の手帳を見せると、AI は「あ、そうだったんだ」と簡単に記憶を書き換えてしまいます。
    • 逆に、「天気」や「意見」のように元々コロコロ変わるような事柄については、AI は「うーん、どっちも怪しいな」と慎重になり、新しい情報を受け入れにくいのです。
    • 教訓: 「常識だと思っていること」ほど、新しい情報で書き換えられやすい(=危険)ということです。

③ 現実世界では、AI はどんな「手帳」を信じる?(RAG の実態)

  • どんな実験?
    人工的に作ったデータではなく、**「現実世界で実際に使われている検索結果」**を使って、AI がどの情報を信じるか調べました。
  • 発見:
    • AI は、**「自信満々で断定的に書かれている文章」**を非常に信じてしまいます。
    • しかし、現実の世界では、**「検索結果と質問が似ていること」「長い文章」**は、AI が正しく理解するのが難しいようです。
    • 人工的な実験データでは「AI は嘘の情報を拒絶する」という結果が出がちですが、現実世界では、AI はもっと単純な「書き方の勢い」で判断してしまうことが分かりました。

💡 3. 結論:AI と付き合うためのヒント

この研究から、私たちが AI を使う時に気をつけるべきことがいくつか見えてきました。

  1. AI は「記憶」に固執する: 間違った知識を頭に入れてしまうと、新しい正しい情報が入ってきても、なかなか直してくれません。
  2. 「常識」ほど要注意: 昔から言われていること(日本の首都など)ほど、AI は嘘の情報に簡単に乗せられてしまいます。
  3. 自信満々な嘘に注意: AI は、論理的に正しくなくても、「自信ありげに書かれている文章」を本当のことだと信じてしまいます。

まとめのメタファー:
AI は、**「自分の過去の記憶(パラメトリック知識)」という古い地図と、「最新のナビゲーション(検索結果)」という新しい地図を持っています。
しかし、AI は
「古い地図の方が好き」で、新しいナビゲーションが「ここは違うよ」と言っても、「いや、昔からこうだったはずだ」と頑固に拒絶することが多いのです。
特に、
「絶対に変わらないはずの事実」**について、新しいナビゲーションが間違った案内をしてきても、AI は簡単に「あ、そうか」と信じてしまい、道に迷ってしまうのです。

この研究は、AI がどうやって「記憶」と「新しい情報」をバランスよく使い、私たちがより信頼できる AI を作れるかという、次のステップへの重要な一歩を示しています。


※この講演は、情報検索(IR)と自然言語処理(NLP)の研究者たちが協力して、AI の「内面」を理解しようとする試みの一部です。