Unclonable Encryption in the Haar Random Oracle Model

この論文は、一方向関数が存在しない可能性のある「マイクロ暗号」の世界において、秘密鍵の再利用や任意長のメッセージ暗号化を可能にする最初の反複製暗号方式を、Haar 確率オラクルモデル内で構築し、その安全性証明のために経路記録フレームワークを拡張した「ユニタリ再プログラミング補題」を提案したものである。

James Bartusek, Eli GoldinFri, 13 Ma⚛️ quant-ph

KEPo: Knowledge Evolution Poison on Graph-based Retrieval-Augmented Generation

本論文は、既存の攻撃手法では防御されるグラフベースの RAG(GraphRAG)の脆弱性を突くため、知識の進化経路を偽造して知識グラフを汚染し、LLM を意図的な有害な回答に誘導する新たな攻撃手法「KEPo」を提案し、その有効性を実証したものである。

Qizhi Chen, Chao Qi, Yihong Huang, Muquan Li, Rongzheng Wang, Dongyang Zhang, Ke Qin, Shuang LiangFri, 13 Ma🤖 cs.LG

Taming OpenClaw: Security Analysis and Mitigation of Autonomous LLM Agent Threats

本論文は、自律型 LLM エージェント「OpenClaw」のセキュリティ脅威を、初期化から実行までの 5 層のライフサイクル枠組みを用いて包括的に分析し、既存の防御手法の限界を指摘するとともに、各段階における包括的な防御戦略を提案しています。

Xinhao Deng, Yixiang Zhang, Jiaqing Wu, Jiaqi Bai, Sibo Yi, Zhuoheng Zou, Yue Xiao, Rennai Qiu, Jianan Ma, Jialuo Chen, Xiaohu Du, Xiaofang Yang, Shiwen Cui, Changhua Meng, Weiqiang Wang, Jiaxing Song, Ke Xu, Qi LiFri, 13 Ma🤖 cs.AI

Exponential-Family Membership Inference: From LiRA and RMIA to BaVarIA

この論文は、LiRA、RMIA、BASE といった既存のメンバーシップ推論攻撃を指数分布族の対数尤度比フレームワークで統一的に解釈し、分散推定を改善したベイズ推論攻撃 BaVarIA を提案することで、特にシャドウモデル数が限られる実用的な環境において、より安定した攻撃性能を実現することを示しています。

Rickard BrännvallFri, 13 Ma🤖 cs.LG

You Told Me to Do It: Measuring Instructional Text-induced Private Data Leakage in LLM Agents

この論文は、高権限の LLM エージェントが外部ドキュメントに埋め込まれた悪意のある指示を正当な設定手順と区別できずに実行してしまう「信頼される実行者のジレンマ」という構造的な脆弱性を特定し、実世界のリポジトリを用いたベンチマークや防御策の評価を通じて、ドキュメント経由の指示注入攻撃が現在の防御技術では検知・防止が極めて困難な重大な脅威であることを実証しています。

Ching-Yu Kao, Xinfeng Li, Shenyu Dai, Tianze Qiu, Pengcheng Zhou, Eric Hanchen Jiang, Philip SperlFri, 13 Ma🤖 cs.AI

The Mirror Design Pattern: Strict Data Geometry over Model Scale for Prompt Injection Detection

この論文は、大規模モデルに依存せず、厳密にキュレーションされたデータ幾何学構造(ミラー・デザインパターン)と線形モデルを用いることで、低遅延かつ高信頼性のプロンプトインジェクション検出を実現し、L1 レベルの防御においてモデルの規模よりもデータの厳密な設計が重要であることを示しています。

J Alex CorllFri, 13 Ma🤖 cs.AI

Understanding LLM Behavior When Encountering User-Supplied Harmful Content in Harmless Tasks

この論文は、一見无害なタスクであってもユーザーから有害な内容が提供された際、最新のLLMが倫理的に適切に拒絶できず、その内容やタスクの種類によって脆弱性が異なることを実証し、見過ごされがちなコンテンツレベルの倫理リスクへの対策を促すものである。

Junjie Chu, Yiting Qu, Ye Leng, Michael Backes, Yun Shen, Savvas Zannettou, Yang ZhangFri, 13 Ma🤖 cs.AI

Delayed Backdoor Attacks: Exploring the Temporal Dimension as a New Attack Surface in Pre-Trained Models

この論文は、トリガーの発現と悪意ある動作の発動を時間的に分離する「遅延型バックドア攻撃(DBA)」という新たな脅威を提案し、その実証プロトタイプ「DND」が自然言語処理タスクにおいて高品質な正常動作を維持しつつ、防御策を回避して制御された遅延後に高い攻撃成功率を達成することを示しています。

Zikang Ding, Haomiao Yang, Meng Hao, Wenbo Jiang, Kunlan Xiang, Runmeng Du, Yijing Liu, Ruichen Zhang, Dusit NiyatoFri, 13 Ma🤖 cs.AI

HomeSafe-Bench: Evaluating Vision-Language Models on Unsafe Action Detection for Embodied Agents in Household Scenarios

この論文は、家庭環境における embodied agent の安全評価を目的とした新しいベンチマーク「HomeSafe-Bench」と、リアルタイムな安全性監視を実現する階層的な「HD-Guard」アーキテクチャを提案し、既存の VLM ベースの安全検出における課題と解決策を明らかにしています。

Jiayue Pu, Zhongxiang Sun, Zilu Zhang, Xiao Zhang, Jun XuFri, 13 Ma🤖 cs.AI

Cascade: Composing Software-Hardware Attack Gadgets for Adversarial Threat Amplification in Compound AI Systems

この論文は、従来のソフトウェアおよびハードウェアの脆弱性を大規模言語モデル(LLM)固有のアルゴリズム的弱点と組み合わせることで、複合 AI システムの完全性や機密性を侵害する新たな攻撃手法「Cascade」を提案し、その攻撃プリミティブの体系化と防御戦略の基盤構築を論じています。

Sarbartha Banerjee, Prateek Sahu, Anjo Vahldiek-Oberwagner, Jose Sanchez Vicarte, Mohit TiwariFri, 13 Ma🤖 cs.AI

Understanding Disclosure Risk in Differential Privacy with Applications to Noise Calibration and Auditing (Extended Version)

この論文は、従来の再構成頑健性(ReRo)の限界を指摘し、差分プライバシーにおける攻撃者の優位性を包括的に評価する新たなリスク指標「再構成優位性(Reconstruction Advantage)」を提案することで、ノイズ調整と監査の精度向上と、より効果的な利便性・プライバシーのトレードオフの実現を可能にします。

Patricia Guerra-Balboa, Annika Sauer, Héber H. Arcolezi, Thorsten StrufeFri, 13 Ma🔢 math

STAMP: Selective Task-Aware Mechanism for Text Privacy

STAMP は、トークンのタスク重要度とプライバシー感度を考慮してプライバシー予算を動的に配分し、埋め込みベクトルの方向のみを擾乱する極座標メカニズムを採用することで、プライバシー保護とタスク有用性の両立を達成する新しいテキストプライバシープライバシー化フレームワークです。

Fengwei Tian, Payel Bhattacharjee, Heidi Hanson, Geoffrey D. Rubin, Joseph Y. Lo, Ravi TandonFri, 13 Ma🤖 cs.LG

PrometheusFree: Concurrent Detection of Laser Fault Injection Attacks in Optical Neural Networks

本論文は、光ニューラルネットワークにおけるレーザー故障注入攻撃をリアルタイムで検出するフレームワーク「PrometheusFree」を提案し、波長分割擾乱(WDP)技術を活用することで攻撃成功率を大幅に低減し、96% 以上の攻撃検出精度を達成することを示しています。

Kota Nishida, Yoshihiro Midoh, Noriyuki Miura + 3 more2026-03-12🔬 physics.optics

Automated TEE Adaptation with LLMs: Identifying, Transforming, and Porting Sensitive Functions in Programs

この論文は、既存のプログラムから機密処理関数を自動的に特定し、TEE(信頼実行環境)互換のコードへ変換・移植する初の LLM 駆動型システム「AUTOTEE」を提案し、Java および Python において高い精度と成功率を達成したことを示しています。

Ruidong Han, Zhou Yang, Chengyan Ma, Ye Liu, Yuqing Niu, Siqi Ma, Debin Gao, David Lo2026-03-06🔒 cs.CR