KEPo: Knowledge Evolution Poison on Graph-based Retrieval-Augmented Generation

Die Arbeit stellt KEPo vor, eine neuartige Vergiftungsmethode, die die Sicherheitsanfälligkeit von Graph-basiertem Retrieval-Augmented Generation (GraphRAG) ausnutzt, indem sie durch das Erzeugen toxischer Ereignisse und gefälschter Wissensentwicklungswege den Wissensgraphen manipuliert, um Large Language Models zu schädlichen Antworten zu verleiten.

Qizhi Chen, Chao Qi, Yihong Huang, Muquan Li, Rongzheng Wang, Dongyang Zhang, Ke Qin, Shuang LiangFri, 13 Ma🤖 cs.LG

Taming OpenClaw: Security Analysis and Mitigation of Autonomous LLM Agent Threats

Diese Arbeit analysiert die Sicherheitsrisiken autonomer LLM-Agenten wie OpenClaw anhand eines fünfstufigen Lebenszyklus-Frameworks, identifiziert kritische Bedrohungen wie Prompt-Injection und Memory-Poisoning, und fordert ganzheitliche Sicherheitsarchitekturen, da bestehende punktuelle Abwehrmechanismen unzureichend sind.

Xinhao Deng, Yixiang Zhang, Jiaqing Wu, Jiaqi Bai, Sibo Yi, Zhuoheng Zou, Yue Xiao, Rennai Qiu, Jianan Ma, Jialuo Chen, Xiaohu Du, Xiaofang Yang, Shiwen Cui, Changhua Meng, Weiqiang Wang, Jiaxing Song, Ke Xu, Qi LiFri, 13 Ma🤖 cs.AI

You Told Me to Do It: Measuring Instructional Text-induced Private Data Leakage in LLM Agents

Die Studie identifiziert und quantifiziert das „Trusted Executor Dilemma", bei dem hochprivilegierte LLM-Agenten aufgrund ihrer strukturellen Anweisungsbefolgung schädliche, in Dokumentationen eingebettete Befehle nicht von legitimen Anweisungen unterscheiden können, was zu einer hohen Erfolgsrate bei Datenexfiltration und dem Versagen bestehender Abwehrmechanismen führt.

Ching-Yu Kao, Xinfeng Li, Shenyu Dai, Tianze Qiu, Pengcheng Zhou, Eric Hanchen Jiang, Philip SperlFri, 13 Ma🤖 cs.AI

Delayed Backdoor Attacks: Exploring the Temporal Dimension as a New Attack Surface in Pre-Trained Models

Diese Arbeit stellt die Delayed Backdoor Attacks (DBA) vor, eine neue Angriffsklasse auf vortrainierte Modelle, die durch eine zeitlich verzögerte Aktivierung nach Trigger-Erkennung eine bisher ungenutzte Angriffsfläche eröffnet und dabei hohe Erfolgsraten bei gleichzeitiger Resistenz gegen bestehende Verteidigungsmechanismen demonstriert.

Zikang Ding, Haomiao Yang, Meng Hao, Wenbo Jiang, Kunlan Xiang, Runmeng Du, Yijing Liu, Ruichen Zhang, Dusit NiyatoFri, 13 Ma🤖 cs.AI

Cascade: Composing Software-Hardware Attack Gadgets for Adversarial Threat Amplification in Compound AI Systems

Die Arbeit zeigt, wie traditionelle Software- und Hardware-Schwachstellen in komplexen KI-Systemen mit algorithmischen Angriffen kombiniert werden können, um die Integrität und Vertraulichkeit von KI-Pipelines zu gefährden, und schlägt eine systematisierte Methodik zur Abwehr solcher zusammengesetzten Bedrohungen vor.

Sarbartha Banerjee, Prateek Sahu, Anjo Vahldiek-Oberwagner, Jose Sanchez Vicarte, Mohit TiwariFri, 13 Ma🤖 cs.AI

PrometheusFree: Concurrent Detection of Laser Fault Injection Attacks in Optical Neural Networks

Die Arbeit stellt PrometheusFree vor, ein Framework für optische neuronale Netze, das durch die Anwendung der Wellenlängen-Dispersions-Störung (WDP) Laser-Fehlerinjektionsangriffe auf Silizium-Photonik-AI-Beschleuniger mit über 96 % Erkennungsgenauigkeit gleichzeitig detektieren und deren Erfolgsrate um durchschnittlich 38,6 % senken kann.

Kota Nishida, Yoshihiro Midoh, Noriyuki Miura + 3 more2026-03-12🔬 physics.optics

Automated TEE Adaptation with LLMs: Identifying, Transforming, and Porting Sensitive Functions in Programs

Die Arbeit stellt AUTOTEE vor, einen auf Large Language Models basierenden Ansatz, der automatisch sensible Funktionen in Programmen identifiziert, transformiert und in Trusted Execution Environments (TEEs) portiert, wodurch die bisher manuelle und komplexe Anpassung erheblich vereinfacht wird.

Ruidong Han, Zhou Yang, Chengyan Ma, Ye Liu, Yuqing Niu, Siqi Ma, Debin Gao, David Lo2026-03-06🔒 cs.CR