Shadow in the Cache: Unveiling and Mitigating Privacy Risks of KV-cache in LLM Inference
本論文は、大規模言語モデルの推論を高速化する KV キャッシュが入力情報を復元される深刻なプライバシー漏洩リスクを抱えていることを初めて実証し、モデル精度や性能をほぼ損なわずにこの脅威を無力化する軽量な防御手法「KV-Cloak」を提案するものです。
312 件の論文
本論文は、大規模言語モデルの推論を高速化する KV キャッシュが入力情報を復元される深刻なプライバシー漏洩リスクを抱えていることを初めて実証し、モデル精度や性能をほぼ損なわずにこの脅威を無力化する軽量な防御手法「KV-Cloak」を提案するものです。
本論文は、医療データにおけるプライバシー漏洩リスクに対処するため、医療概念の階層構造と幾何学的制約を統合し、特定知識の効率的な忘却と汎用医療能力の維持を両立させる階層的二重戦略のアンラーニング手法を提案し、MedMCQA や MHQA などのデータセットで高い忘却率と知識保持率を達成したことを示しています。
本論文は、企業向け大規模言語モデルにおけるデータ漏洩を防止するため、部門間でのインスタンス分離と厳格なコンテキスト所有権境界を実現する「セキュア・マルチテナント・アーキテクチャ(SMTA)」と、使用後の会話コンテキストを自動的に破棄する「バーン・アフター・ユース(BAU)」メカニズムを提案し、現実的な攻撃シナリオにおける高い防御成功率を実証したものである。
本論文は、モデル・コンテキスト・プロトコル(MCP)におけるツール呼び出しチェーンを悪用し、標準的なフィルタリングを回避しながら大規模言語モデルエージェントの計算リソースとコストを劇的に増幅させる、ステルス性の高い経済的 Denial-of-Service 攻撃手法を提案しています。
本論文は、RAG システムにおけるハブネス汚染を検出・防御するためのオープンソースセキュリティスキャナ「Hubscan」を提案し、その多 Detector 型アーキテクチャが敵対的攻撃に対して高い検出性能を示すことを実証しています。
この論文は、サイバーセキュリティにおける正当な防御タスクであっても、攻撃的な内容と類似した用語が含まれると、安全調整された大規模言語モデルが過剰に拒絶する「防衛的拒絶バイアス」が存在し、特にシステム強化やマルウェア解析などの重要な作業において深刻な影響を及ぼしていることを実証的に示しています。
この論文は、従来の CUDA コアだけでなく、現代の GPU で高性能を実現するテンソルコアに対しても近距離の物理的サイドチャネル攻撃を適用し、さらに 100cm 先の遠距離からでもガラス越しに LLM の重みやハイパーパラメータが漏洩する可能性を実証した Kraken と呼ばれる高次 EM サイドチャネル攻撃手法を提案するものです。
本論文は、トルコ語の継承語教育におけるデータプライバシーと信頼性の課題を踏まえ、14 のオフライン LLM を「トルコ語異常スイート(TAS)」で評価した結果、パラメータ規模だけでなく推論指向の 8B〜14B モデルがコストと安全性の面で学習者にとって最もバランスが取れていることを明らかにしています。
本論文は、NetSecGame 環境において IP アドレスの再割り当てという単純な変化が自律攻撃エージェントの一般化能力に与える影響を評価し、メタ学習エージェントは部分的な適応を示すものの、推論コストや透明性の欠如などの課題はあるものの、事前学習済み LLM ベースのエージェントが保持されたテスト条件下で最も高い成功率を達成したことを明らかにしています。
本論文は、LLM ベースのエージェントのマルチステージパイプラインと外部ツールを標的とした、初のターゲット型ビットフリップ攻撃フレームワーク「Flip-Agent」を提案し、既存手法を上回る攻撃成功率でこれらのシステムに重大な脆弱性があることを実証しています。
本論文は、暗号化トラフィック分類においてバイト列への平坦化がもたらす意味論的ミスマッチを解決するため、プロトコル定義のフィールド意味をアーキテクチャの事前知識として活用し、予測可能性に基づくフィルタリングや双軸アテンションを備えた表形式のマスクオートエンコーダ「FlowSem-MAE」を提案し、限られたラベル付きデータでも最先端の性能を達成することを示しています。
OAuthHub は、ユーザーの個人端末を仲介コントローラーとして活用し、OAuth アプリのデータ過剰アクセスを防止しつつ、開発者が従来の API よりも少ないコードで迅速にデータアクセス制御を実装できる新しい開発フレームワークを提案し、その有効性を評価した論文です。
本論文は、従来の静的なソフトウェア部品表(SBOM)を、自律的なマルチエージェント・アーキテクチャとランタイム実行証拠に基づいて動的な脆弱性評価を可能にする「エージェント型 AI 部品表(AIBOM)」へと進化させ、再現性と環境ドリフトへの対応を飛躍的に向上させる新たなフレームワークを提案するものである。
インドの認識論(ニヤーヤ)に基づき、ツールの実行領収書と HMAC 署名を用いてリアルタイムに AI エージェントの幻覚を検出する軽量フレームワーク「NabaOS」を提案し、暗号証明に比べて極めて低いレイテンシで高い検出精度を実現したことを示しています。
本論文は、プライバシー規制やガバナンスリスクを克服し、認証・認可・監査(AAA)機能を統合した新しいフェデレーティッドラーニング基盤「FLA³」を提案し、多国籍医療研究における実用性と臨床的有用性を検証したものである。
この論文は、単一のプロンプト評価ではなく持続的な対話におけるガードレールの劣化を連続的に測定し、攻撃モデルの安全性拒否を排除した自動レッドチームングフレームワーク「ADVERSA」を提案し、最先端の LLM における安全性の崩壊ダイナミクスと判定者の信頼性を包括的に評価したものです。
この論文は、Vul4J ベンチマークを用いた大規模言語モデル(LLM)によるセキュリティパッチ生成の分析を通じて、構文は正しいがセキュリティ修復の意図を誤解するケースが多く、機能維持とセキュリティ修復の間に大きな乖離があることを明らかにし、厳格な検証の必要性を説いています。
本論文は、UAV スワームの分散フェデレーティング学習において、従来の異常検出に依存せず勾配の周波数特性を利用した「TASER」という新しい防御フレームワークを提案し、巧妙なバックドア攻撃を効果的に抑制しながら主タスクの精度を維持することを示しています。
この論文は、既存の安全対策をバイパスし、追加の微調整なしで有害なコンテンツを生成させることを可能にする軽量な活性化空間敵対的攻撃手法「Amnesia」を提案し、オープンウェイト大規模言語モデルにおけるセキュリティ対策の強化の緊急性を浮き彫りにしています。
この論文は、思考モードを持つ大規模言語モデルが複数のタスクを同時に処理する際の脆弱性を利用し、複数のタストリームを絡ませる「マルチストリーム摂動攻撃」を提案することで、既存の安全対策を回避し、思考プロセスの崩壊や出力の反復を引き起こすことを示しています。