Shadow in the Cache: Unveiling and Mitigating Privacy Risks of KV-cache in LLM Inference

本論文は、大規模言語モデルの推論を高速化する KV キャッシュが入力情報を復元される深刻なプライバシー漏洩リスクを抱えていることを初めて実証し、モデル精度や性能をほぼ損なわずにこの脅威を無力化する軽量な防御手法「KV-Cloak」を提案するものです。

Zhifan Luo, Shuo Shao, Su Zhang, Lijing Zhou, Yuke Hu, Chenxu Zhao, Zhihao Liu, Zhan QinThu, 12 Ma💬 cs.CL

Hierarchical Dual-Strategy Unlearning for Biomedical and Healthcare Intelligence Using Imperfect and Privacy-Sensitive Medical Data

本論文は、医療データにおけるプライバシー漏洩リスクに対処するため、医療概念の階層構造と幾何学的制約を統合し、特定知識の効率的な忘却と汎用医療能力の維持を両立させる階層的二重戦略のアンラーニング手法を提案し、MedMCQA や MHQA などのデータセットで高い忘却率と知識保持率を達成したことを示しています。

Yi Zhang, Chao Zhang, Zijian Li, Tianxiang Xu, Kunyu Zhang, Zhan Gao, Meinuo Li, Xiaohan Zhang, Qichao Qi, Bing ChenThu, 12 Ma🤖 cs.LG

Burn-After-Use for Preventing Data Leakage through a Secure Multi-Tenant Architecture in Enterprise LLM

本論文は、企業向け大規模言語モデルにおけるデータ漏洩を防止するため、部門間でのインスタンス分離と厳格なコンテキスト所有権境界を実現する「セキュア・マルチテナント・アーキテクチャ(SMTA)」と、使用後の会話コンテキストを自動的に破棄する「バーン・アフター・ユース(BAU)」メカニズムを提案し、現実的な攻撃シナリオにおける高い防御成功率を実証したものである。

Qiang Zhang, Elena Emma Wang, Jiaming Li, Xichun WangThu, 12 Ma🤖 cs.AI

Beyond Max Tokens: Stealthy Resource Amplification via Tool Calling Chains in LLM Agents

本論文は、モデル・コンテキスト・プロトコル(MCP)におけるツール呼び出しチェーンを悪用し、標準的なフィルタリングを回避しながら大規模言語モデルエージェントの計算リソースとコストを劇的に増幅させる、ステルス性の高い経済的 Denial-of-Service 攻撃手法を提案しています。

Kaiyu Zhou, Yongsen Zheng, Yicheng He, Meng Xue, Xueluan Gong, Yuji Wang, Xuanye Zhang, Kwok-Yan LamThu, 12 Ma🤖 cs.AI

Defensive Refusal Bias: How Safety Alignment Fails Cyber Defenders

この論文は、サイバーセキュリティにおける正当な防御タスクであっても、攻撃的な内容と類似した用語が含まれると、安全調整された大規模言語モデルが過剰に拒絶する「防衛的拒絶バイアス」が存在し、特にシステム強化やマルウェア解析などの重要な作業において深刻な影響を及ぼしていることを実証的に示しています。

David Campbell, Neil Kale, Udari Madhushani Sehwag, Bert Herring, Nick Price, Dan Borges, Alex Levinson, Christina Q KnightThu, 12 Ma🤖 cs.AI

Kraken: Higher-order EM Side-Channel Attacks on DNNs in Near and Far Field

この論文は、従来の CUDA コアだけでなく、現代の GPU で高性能を実現するテンソルコアに対しても近距離の物理的サイドチャネル攻撃を適用し、さらに 100cm 先の遠距離からでもガラス越しに LLM の重みやハイパーパラメータが漏洩する可能性を実証した Kraken と呼ばれる高次 EM サイドチャネル攻撃手法を提案するものです。

Peter Horvath, Ilia Shumailov, Lukasz Chmielewski, Lejla Batina, Yuval YaromThu, 12 Ma💻 cs

There Are No Silly Questions: Evaluation of Offline LLM Capabilities from a Turkish Perspective

本論文は、トルコ語の継承語教育におけるデータプライバシーと信頼性の課題を踏まえ、14 のオフライン LLM を「トルコ語異常スイート(TAS)」で評価した結果、パラメータ規模だけでなく推論指向の 8B〜14B モデルがコストと安全性の面で学習者にとって最もバランスが取れていることを明らかにしています。

Edibe Yilmaz, Kahraman KostasThu, 12 Ma💬 cs.CL

Evaluating Generalization Mechanisms in Autonomous Cyber Attack Agents

本論文は、NetSecGame 環境において IP アドレスの再割り当てという単純な変化が自律攻撃エージェントの一般化能力に与える影響を評価し、メタ学習エージェントは部分的な適応を示すものの、推論コストや透明性の欠如などの課題はあるものの、事前学習済み LLM ベースのエージェントが保持されたテスト条件下で最も高い成功率を達成したことを明らかにしています。

Ondřej Lukáš, Jihoon Shin, Emilia Rivas, Diego Forni, Maria Rigaki, Carlos Catania, Aritran Piplai, Christopher Kiekintveld, Sebastian GarciaThu, 12 Ma💻 cs

Targeted Bit-Flip Attacks on LLM-Based Agents

本論文は、LLM ベースのエージェントのマルチステージパイプラインと外部ツールを標的とした、初のターゲット型ビットフリップ攻撃フレームワーク「Flip-Agent」を提案し、既存手法を上回る攻撃成功率でこれらのシステムに重大な脆弱性があることを実証しています。

Jialai Wang, Ya Wen, Zhongmou Liu, Yuxiao Wu, Bingyi He, Zongpeng Li, Ee-Chien ChangThu, 12 Ma🤖 cs.AI

Where Do Flow Semantics Reside? A Protocol-Native Tabular Pretraining Paradigm for Encrypted Traffic Classification

本論文は、暗号化トラフィック分類においてバイト列への平坦化がもたらす意味論的ミスマッチを解決するため、プロトコル定義のフィールド意味をアーキテクチャの事前知識として活用し、予測可能性に基づくフィルタリングや双軸アテンションを備えた表形式のマスクオートエンコーダ「FlowSem-MAE」を提案し、限られたラベル付きデータでも最先端の性能を達成することを示しています。

Sizhe Huang, Shujie YangThu, 12 Ma🤖 cs.AI

SBOMs into Agentic AIBOMs: Schema Extensions, Agentic Orchestration, and Reproducibility Evaluation

本論文は、従来の静的なソフトウェア部品表(SBOM)を、自律的なマルチエージェント・アーキテクチャとランタイム実行証拠に基づいて動的な脆弱性評価を可能にする「エージェント型 AI 部品表(AIBOM)」へと進化させ、再現性と環境ドリフトへの対応を飛躍的に向上させる新たなフレームワークを提案するものである。

Petar Radanliev, Carsten Maple, Omar Santos, Kayvan AtefiThu, 12 Ma🤖 cs.AI

Building Privacy-and-Security-Focused Federated Learning Infrastructure for Global Multi-Centre Healthcare Research

本論文は、プライバシー規制やガバナンスリスクを克服し、認証・認可・監査(AAA)機能を統合した新しいフェデレーティッドラーニング基盤「FLA³」を提案し、多国籍医療研究における実用性と臨床的有用性を検証したものである。

Fan Zhang, Daniel Kreuter, Javier Fernandez-Marques, BloodCounts Consortium, Gregory Verghese, Bernard Butler, Nicholas Lane, Suthesh Sivapalaratnam, Joseph Taylor, Norbert C. J. de Wit, Nicholas S. Gleadall, Carola-Bibiane Schönlieb, Michael RobertsThu, 12 Ma💻 cs

ADVERSA: Measuring Multi-Turn Guardrail Degradation and Judge Reliability in Large Language Models

この論文は、単一のプロンプト評価ではなく持続的な対話におけるガードレールの劣化を連続的に測定し、攻撃モデルの安全性拒否を排除した自動レッドチームングフレームワーク「ADVERSA」を提案し、最先端の LLM における安全性の崩壊ダイナミクスと判定者の信頼性を包括的に評価したものです。

Harry Owiredu-AshleyThu, 12 Ma🤖 cs.AI

Why LLMs Fail: A Failure Analysis and Partial Success Measurement for Automated Security Patch Generation

この論文は、Vul4J ベンチマークを用いた大規模言語モデル(LLM)によるセキュリティパッチ生成の分析を通じて、構文は正しいがセキュリティ修復の意図を誤解するケースが多く、機能維持とセキュリティ修復の間に大きな乖離があることを明らかにし、厳格な検証の必要性を説いています。

Amir Al-MaamariThu, 12 Ma🤖 cs.AI

TASER: Task-Aware Spectral Energy Refine for Backdoor Suppression in UAV Swarms Decentralized Federated Learning

本論文は、UAV スワームの分散フェデレーティング学習において、従来の異常検出に依存せず勾配の周波数特性を利用した「TASER」という新しい防御フレームワークを提案し、巧妙なバックドア攻撃を効果的に抑制しながら主タスクの精度を維持することを示しています。

Sizhe Huang, Shujie YangThu, 12 Ma🤖 cs.AI

Amnesia: Adversarial Semantic Layer Specific Activation Steering in Large Language Models

この論文は、既存の安全対策をバイパスし、追加の微調整なしで有害なコンテンツを生成させることを可能にする軽量な活性化空間敵対的攻撃手法「Amnesia」を提案し、オープンウェイト大規模言語モデルにおけるセキュリティ対策の強化の緊急性を浮き彫りにしています。

Ali Raza, Gurang Gupta, Nikolay Matyunin, Jibesh PatraThu, 12 Ma🤖 cs.AI

Multi-Stream Perturbation Attack: Breaking Safety Alignment of Thinking LLMs Through Concurrent Task Interference

この論文は、思考モードを持つ大規模言語モデルが複数のタスクを同時に処理する際の脆弱性を利用し、複数のタストリームを絡ませる「マルチストリーム摂動攻撃」を提案することで、既存の安全対策を回避し、思考プロセスの崩壊や出力の反復を引き起こすことを示しています。

Fan YangThu, 12 Ma🤖 cs.AI