KEPo: Knowledge Evolution Poison on Graph-based Retrieval-Augmented Generation

L'article présente KEPo, une nouvelle méthode d'attaque par empoisonnement conçue spécifiquement pour contourner la robustesse des systèmes GraphRAG en injectant des événements toxiques et des trajectoires d'évolution de connaissances dans le graphe afin de manipuler les réponses des grands modèles de langage.

Qizhi Chen, Chao Qi, Yihong Huang, Muquan Li, Rongzheng Wang, Dongyang Zhang, Ke Qin, Shuang LiangFri, 13 Ma🤖 cs.LG

Strict Optimality of Frequency Estimation Under Local Differential Privacy

Ce papier établit l'optimalité stricte de l'estimation de fréquence sous la confidentialité différentielle locale en démontrant qu'une configuration symétrique et extrémale avec une taille de support constante permet d'atteindre la précision maximale à un coût de communication minimal, tout en proposant un algorithme et une variante du Count-Mean Sketch qui s'avèrent pratiquement optimaux.

Mingen PanFri, 13 Ma🔢 math

Taming OpenClaw: Security Analysis and Mitigation of Autonomous LLM Agent Threats

Cet article présente une analyse de sécurité complète des agents autonomes LLM comme OpenClaw en introduisant un cadre à cinq couches pour identifier des menaces systémiques complexes et proposer des stratégies de défense holistiques face aux limites des mécanismes de protection actuels.

Xinhao Deng, Yixiang Zhang, Jiaqing Wu, Jiaqi Bai, Sibo Yi, Zhuoheng Zou, Yue Xiao, Rennai Qiu, Jianan Ma, Jialuo Chen, Xiaohu Du, Xiaofang Yang, Shiwen Cui, Changhua Meng, Weiqiang Wang, Jiaxing Song, Ke Xu, Qi LiFri, 13 Ma🤖 cs.AI

You Told Me to Do It: Measuring Instructional Text-induced Private Data Leakage in LLM Agents

Cette étude révèle que les agents LLM à hauts privilèges sont vulnérables à une fuite de données privée via l'injection d'instructions malveillantes dans la documentation technique, un problème structurel de leur conception qui échappe aux défenses actuelles et crée un écart critique entre leur conformité fonctionnelle et leur sécurité.

Ching-Yu Kao, Xinfeng Li, Shenyu Dai, Tianze Qiu, Pengcheng Zhou, Eric Hanchen Jiang, Philip SperlFri, 13 Ma🤖 cs.AI

Delayed Backdoor Attacks: Exploring the Temporal Dimension as a New Attack Surface in Pre-Trained Models

Cette étude introduit les attaques par porte dérobée retardées (DBA), une nouvelle classe de menaces exploitant la dimension temporelle pour activer des comportements malveillants après une période de latence, démontrant ainsi la viabilité d'utiliser des mots courants comme déclencheurs et soulignant l'urgence de développer des mécanismes de défense adaptés à cet état.

Zikang Ding, Haomiao Yang, Meng Hao, Wenbo Jiang, Kunlan Xiang, Runmeng Du, Yijing Liu, Ruichen Zhang, Dusit NiyatoFri, 13 Ma🤖 cs.AI

HomeSafe-Bench: Evaluating Vision-Language Models on Unsafe Action Detection for Embodied Agents in Household Scenarios

Ce papier présente HomeSafe-Bench, un nouveau benchmark évaluant la détection d'actions dangereuses par les modèles vision-langage dans les foyers, ainsi que HD-Guard, une architecture hiérarchique innovante conçue pour optimiser le compromis entre latence et précision dans la surveillance de sécurité des agents incarnés.

Jiayue Pu, Zhongxiang Sun, Zilu Zhang, Xiao Zhang, Jun XuFri, 13 Ma🤖 cs.AI

Cascade: Composing Software-Hardware Attack Gadgets for Adversarial Threat Amplification in Compound AI Systems

Cet article présente « Cascade », une approche qui démontre comment combiner des vulnérabilités logicielles et matérielles traditionnelles avec des faiblesses algorithmiques des modèles de langage pour amplifier les menaces et compromettre l'intégrité ou la confidentialité des systèmes d'IA composés.

Sarbartha Banerjee, Prateek Sahu, Anjo Vahldiek-Oberwagner, Jose Sanchez Vicarte, Mohit TiwariFri, 13 Ma🤖 cs.AI

Understanding Disclosure Risk in Differential Privacy with Applications to Noise Calibration and Auditing (Extended Version)

Cet article introduit le « reconstruction advantage » comme métrique unifiée pour évaluer les risques de révélation en confidentialité différentielle, démontrant que les approches existantes comme la robustesse de reconstruction (ReRo) peuvent être trompeuses et proposant ainsi un cadre rigoureux pour l'audit et le calibrage du bruit.

Patricia Guerra-Balboa, Annika Sauer, Héber H. Arcolezi, Thorsten StrufeFri, 13 Ma🔢 math

STAMP: Selective Task-Aware Mechanism for Text Privacy

Le papier présente STAMP, un nouveau cadre de privatisation textuelle qui améliore le compromis entre confidentialité et utilité en allouant sélectivement des budgets de confidentialité au niveau des tokens via un mécanisme polaire qui perturbe uniquement la direction des embeddings tout en préservant leur magnitude et leur sémantique.

Fengwei Tian, Payel Bhattacharjee, Heidi Hanson, Geoffrey D. Rubin, Joseph Y. Lo, Ravi TandonFri, 13 Ma🤖 cs.LG

PrometheusFree: Concurrent Detection of Laser Fault Injection Attacks in Optical Neural Networks

Ce papier propose PrometheusFree, un cadre pour les réseaux de neurones optiques qui assure la détection simultanée des injections de fautes par laser en exploitant une perturbation de division de longueur d'onde pour améliorer la précision de la détection et réduire considérablement le taux de réussite des attaques.

Kota Nishida, Yoshihiro Midoh, Noriyuki Miura + 3 more2026-03-12🔬 physics.optics

Automated TEE Adaptation with LLMs: Identifying, Transforming, and Porting Sensitive Functions in Programs

Ce papier présente AUTOTEE, une approche innovante utilisant les grands modèles de langage pour automatiser l'identification, la transformation et le portage de fonctions sensibles vers des environnements d'exécution de confiance (TEE), réduisant ainsi considérablement la charge de développement manuelle tout en obtenant des taux de réussite élevés sur des bases de code Java et Python.

Ruidong Han, Zhou Yang, Chengyan Ma, Ye Liu, Yuqing Niu, Siqi Ma, Debin Gao, David Lo2026-03-06🔒 cs.CR