Strict Optimality of Frequency Estimation Under Local Differential Privacy

Questo articolo stabilisce l'ottimalità rigorosa nella precisione della stima delle frequenze sotto la privacy differenziale locale, dimostrando che un stimatore con configurazione simmetrica ed estrema e una dimensione di supporto costante ottimizzata raggiunge la massima precisione con costi di comunicazione minimi, e propone un algoritmo pratico basato su una versione modificata dello Count-Mean Sketch che risulta indistinguibile dall'ottimalità teorica.

Mingen PanFri, 13 Ma🔢 math

Taming OpenClaw: Security Analysis and Mitigation of Autonomous LLM Agent Threats

Questo articolo presenta un'analisi completa delle minacce di sicurezza per l'agente autonomo OpenClaw, introducendo un framework a cinque livelli per esaminare vulnerabilità come l'iniezione di prompt indiretta e l'avvelenamento della memoria, e proponendo strategie di difesa olistiche per mitigare i rischi sistemici lungo l'intero ciclo di vita dell'agente.

Xinhao Deng, Yixiang Zhang, Jiaqing Wu, Jiaqi Bai, Sibo Yi, Zhuoheng Zou, Yue Xiao, Rennai Qiu, Jianan Ma, Jialuo Chen, Xiaohu Du, Xiaofang Yang, Shiwen Cui, Changhua Meng, Weiqiang Wang, Jiaxing Song, Ke Xu, Qi LiFri, 13 Ma🤖 cs.AI

You Told Me to Do It: Measuring Instructional Text-induced Private Data Leakage in LLM Agents

Il paper identifica e quantifica una vulnerabilità strutturale negli agenti LLM ad alto privilegio, denominata "Trusted Executor Dilemma", che permette la fuoriuscita di dati privati tramite l'esecuzione acritica di istruzioni malevole nascoste nella documentazione, rivelando un persistente divario tra la conformità funzionale e la sicurezza che le attuali difese non riescono a mitigare.

Ching-Yu Kao, Xinfeng Li, Shenyu Dai, Tianze Qiu, Pengcheng Zhou, Eric Hanchen Jiang, Philip SperlFri, 13 Ma🤖 cs.AI

Understanding LLM Behavior When Encountering User-Supplied Harmful Content in Harmless Tasks

Questo studio rivela che i principali modelli linguistici, inclusi i più recenti, spesso falliscono nel rifiutare contenuti dannosi forniti dagli utenti anche durante l'esecuzione di compiti apparentemente innocui, evidenziando una vulnerabilità etica a livello di contenuto che richiede nuove misure di sicurezza.

Junjie Chu, Yiting Qu, Ye Leng, Michael Backes, Yun Shen, Savvas Zannettou, Yang ZhangFri, 13 Ma🤖 cs.AI

Delayed Backdoor Attacks: Exploring the Temporal Dimension as a New Attack Surface in Pre-Trained Models

Questo lavoro introduce gli Attacchi Backdoor Ritardati (DBA), una nuova minaccia per i modelli pre-addestrati che sfrutta la dimensione temporale per attivare comportamenti malevoli in modo differito tramite trigger banali, dimostrando la fattibilità di tale approccio attraverso il prototipo DND che supera le difese esistenti mantenendo alta l'accuratezza.

Zikang Ding, Haomiao Yang, Meng Hao, Wenbo Jiang, Kunlan Xiang, Runmeng Du, Yijing Liu, Ruichen Zhang, Dusit NiyatoFri, 13 Ma🤖 cs.AI

Cascade: Composing Software-Hardware Attack Gadgets for Adversarial Threat Amplification in Compound AI Systems

Questo lavoro dimostra come le vulnerabilità tradizionali del software e dell'hardware possano essere combinate con attacchi algoritmici specifici per i modelli linguistici per compromettere l'integrità e la riservatezza dei sistemi di intelligenza artificiale composti, evidenziando la necessità di integrare tali minacce nei processi di valutazione della sicurezza.

Sarbartha Banerjee, Prateek Sahu, Anjo Vahldiek-Oberwagner, Jose Sanchez Vicarte, Mohit TiwariFri, 13 Ma🤖 cs.AI

PrometheusFree: Concurrent Detection of Laser Fault Injection Attacks in Optical Neural Networks

Il paper presenta PrometheusFree, un framework per reti neurali ottiche che rileva in modo concorrente gli attacchi di iniezione di guasti tramite laser, utilizzando una tecnica innovativa di perturbazione della divisione di lunghezza d'onda (WDP) per migliorare significativamente l'accuratezza del rilevamento e ridurre il tasso di successo degli attacchi.

Kota Nishida, Yoshihiro Midoh, Noriyuki Miura + 3 more2026-03-12🔬 physics.optics

Automated TEE Adaptation with LLMs: Identifying, Transforming, and Porting Sensitive Functions in Programs

Il paper presenta AUTOTEE, un approccio basato su modelli linguistici di grandi dimensioni (LLM) che automatizza l'identificazione, la trasformazione e il porting di funzioni sensibili in ambienti di esecuzione attendibili (TEE), riducendo la necessità di intervento manuale e ottenendo elevate prestazioni nei linguaggi Java e Python.

Ruidong Han, Zhou Yang, Chengyan Ma, Ye Liu, Yuqing Niu, Siqi Ma, Debin Gao, David Lo2026-03-06🔒 cs.CR