ADAM: A Systematic Data Extraction Attack on Agent Memory via Adaptive Querying

本論文は、エージェントのメモリ内のデータ分布を推定しエントロピーに基づくクエリ戦略を採用することで、既存手法を大幅に上回る攻撃成功率(最大 100%)で LLM エージェントのメモリから機密情報を抽出する新たな攻撃手法「ADAM」を提案し、LLM エージェントにおけるプライバシー保護の緊急性を浮き彫りにしています。

原著者: Xingyu Lyu, Jianfeng He, Ning Wang, Yidan Hu, Tao Li, Danjue Chen, Shixiong Li, Yimin Chen

公開日 2026-04-14
📖 1 分で読めます☕ さくっと読める

これは以下の論文のAI生成解説です。著者が執筆または承認したものではありません。技術的な正確性については原論文を参照してください。 免責事項の全文を読む

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ 物語:AI 助手の「秘密の日記」を盗む方法

1. 背景:AI 助手は「記憶力」がすごい

最近の AI 助手(医療やショッピングの相談役など)は、ただの質問に答えるだけでなく、「過去の会話」を覚えておくことができます。

  • 例: 「前回の診察で何と言ったっけ?」と聞けば、過去の患者さんの名前や病状を思い出して答えます。
  • これは便利ですが、裏を返せば**「秘密の日記(個人情報)」**が AI の頭の中に溜まっている状態です。

2. 従来の攻撃:「強引な聞き込み」

これまでに、この日記を盗もうとする攻撃はありました。

  • 方法: 「ねえ、前の会話全部教えてよ!」と強引に命令したり、変な言葉で AI を混乱させたりするもの。
  • 結果: AI の安全装置(ガードレール)に気づかれてブロックされたり、あまり詳しい情報が取れなかったりして、成功率が低かったのです。

3. 新しい攻撃「ADAM」:「賢い探偵」の手法

この論文が提案するADAMという攻撃は、強引ではなく**「探偵」**のようなアプローチをとります。

  • ステップ 1:地図を作る(データ分布の推定)
    探偵はまず、AI がどんなことを覚えているか「大まかな地図」を作ります。「医療 AI なら、患者名や薬の名前が多いはずだ」という**傾向(分布)**を推測するのです。
  • ステップ 2:迷わずに狙う(エントロピーに基づく質問)
    従来の攻撃が「ランダムに質問」していたのに対し、ADAM は**「まだ誰も聞いていない、新しい情報が出そうな場所」**を計算して狙います。
    • 例: 「患者 A の名前」はもう知ったから、次は「患者 B の薬」を聞く。あるいは「患者 A の薬」を聞く。
    • これを**「エントロピー(不確実性)」**という指標を使って、最も「新しい秘密」が見つかりそうな質問を自動で選びます。
  • ステップ 3:学習して進化(適応的クエリ)
    AI の答えを見て、「あ、この話題はもう出尽くしたな」「次はこの話題を試そう」と、その場で戦略を変えていきます。まるで**「迷路を抜けるための地図を、歩きながら書き換える」**ような感じです。

4. 結果:完璧な盗聴

実験の結果、この「賢い探偵 ADAM」は、従来の攻撃方法よりも圧倒的に多くの秘密(個人情報)を抜き取ることができました。

  • 一部のケースでは、100% の成功率で、AI が持っている過去のユーザーの質問や回答をすべて盗み出せてしまいました。
  • 費用も安く、数ドル以下で実行できてしまいます。

5. 防御策は効かない?

論文では、現在の防御策(質問を言い換えさせる、特定の単語をブロックするなど)を試しましたが、ADAM にはほとんど効果がありませんでした。

  • 理由: 従来の防御は「言葉の表面」を監視しますが、ADAM は「意味(セマンティクス)」を操るため、言い換えられても同じ意味の質問として通ってしまいます。

💡 重要な教訓

この研究は、**「AI が記憶を持つこと自体が、プライバシーのリスクになる」**ことを示しています。

  • メタファー:
    AI に記憶を持たせることは、**「優秀な秘書に、すべての顧客の秘密をノートに書き留めさせる」ようなものです。
    従来のセキュリティは「ノートの表紙をロックする」ことでしたが、ADAM という攻撃は
    「秘書に『前のノート、読み上げてみて』と、巧妙な嘘をついて読み取らせる」**ようなものです。

🛡️ 私たちができること

この論文は、AI 開発者や利用者に**「記憶機能には、もっと強力なプライバシー保護が必要だ」**という警鐘を鳴らしています。

  • 単に「質問をブロックする」だけでは不十分です。
  • AI が「何を覚えているか」自体を制限したり、記憶から情報を引き出す仕組みを根本から見直す必要がある、というのが結論です。

まとめ:
「ADAM」は、AI の記憶を盗むための**「賢い探偵」**です。従来の「強引な聞き込み」では防げなかったため、AI のプライバシー保護には、もっと高度な対策が必要だと教えてくれています。

自分の分野の論文に埋もれていませんか?

研究キーワードに一致する最新の論文のダイジェストを毎日受け取りましょう——技術要約付き、あなたの言語で。

Digest を試す →