FlexServe: A Fast and Secure LLM Serving System for Mobile Devices with Flexible Resource Isolation

Il paper presenta FlexServe, un sistema di inferenza per LLM su dispositivi mobili che sfrutta l'isolamento flessibile delle risorse (Flex-Mem e Flex-NPU) all'interno di ARM TrustZone per garantire sicurezza e alte prestazioni, ottenendo significativi miglioramenti nella velocità di generazione rispetto a soluzioni esistenti.

Yinpeng Wu, Yitong Chen, Lixiang Wang, Jinyu Gu, Zhichao Hua, Yubin XiaWed, 11 Ma🤖 cs.LG

AgenticCyOps: Securing Multi-Agentic AI Integration in Enterprise Cyber Operations

Il paper introduce AgenticCyOps, un quadro di sicurezza architetturale che protegge l'integrazione di sistemi multi-agente basati su LLM nelle operazioni informatiche aziendali definendo confini di fiducia e cinque principi difensivi per mitigare le superfici di attacco legate all'orchestrazione degli strumenti e alla gestione della memoria.

Shaswata Mitra, Raj Patel, Sudip Mittal, Md Rayhanur Rahman, Shahram RahimiWed, 11 Ma💻 cs

Fast and Optimal Differentially Private Frequent-Substring Mining

Questo lavoro presenta un nuovo algoritmo di mining dei sottostringhe frequenti con garanzia di privacy differenziale che, mantenendo gli stessi errori ottimali della ricerca precedente, riduce drasticamente la complessità spaziale e temporale da O(n24)O(n^2\ell^4) a O(n+Σ)O(n \ell+ |\Sigma| ) e O(nlogΣ+Σ)O(n \ell\log |\Sigma| + |\Sigma| ) grazie a una strategia di generazione dei candidati raffinata e a un'efficace potatura dello spazio di ricerca.

Peaker Guo, Rayne Holland, Hao WuWed, 11 Ma💻 cs

Reasoning-Oriented Programming: Chaining Semantic Gadgets to Jailbreak Large Vision Language Models

Il paper introduce "Reasoning-Oriented Programming", un nuovo paradigma di attacco che sfrutta la capacità di ragionamento composizionale dei modelli visione-linguaggio per aggirare le allineamenti di sicurezza concatenando input benigni e ortogonali, superando così le difese esistenti su modelli sia open-source che commerciali.

Quanchen Zou, Moyang Chen, Zonghao Ying, Wenzhuo Xu, Yisong Xiao, Deyue Zhang, Dongdong Yang, Zhao Liu, Xiangzheng ZhangWed, 11 Ma💻 cs

Democratising Clinical AI through Dataset Condensation for Classical Clinical Models

Questo articolo propone un quadro di ottimizzazione di ordine zero con privacy differenziale che estende la condensazione dei dataset ai modelli clinici non differenziabili, consentendo la condivisione sicura di dati sintetici che preservano l'utilità predittiva senza esporre informazioni sensibili dei pazienti.

Anshul Thakur, Soheila Molaei, Pafue Christy Nganjimi, Joshua Fieggen, Andrew A. S. Soltan, Danielle Belgrave, Lei Clifton, David A. CliftonWed, 11 Ma🤖 cs.AI

ProvAgent: Threat Detection Based on Identity-Behavior Binding and Multi-Agent Collaborative Attack Investigation

ProvAgent è un framework innovativo che supera i limiti della collaborazione uomo-modello nella rilevazione delle minacce APT, integrando screening iniziale, profilazione basata su coerenza identità-comportamento e indagine autonoma tramite agenti multipli per ricostruire processi di attacco complessi con alta precisione e costi ridotti.

Wenhao Yan, Ning An, Linxu Li, Bingsheng Bi, Bo Jiang, Zhigang Lu, Baoxu Liu, Junrong Liu, Cong DongWed, 11 Ma💻 cs

PixelConfig: Longitudinal Measurement and Reverse-Engineering of Meta Pixel Configurations

Il paper presenta PixelConfig, un framework di analisi differenziale che, attraverso lo studio longitudinale di 18.000 siti web sanitari, rivela come le configurazioni predefinite del Meta Pixel consentano un tracciamento pervasivo di attività e identità degli utenti, inclusa la raccolta di dati sensibili, mentre le funzionalità di restrizione del tracciamento risultano spesso inefficaci o facilmente aggirabili.

Abdullah Ghani (Lahore University of Management Sciences), Yash Vekaria (University of California, Davis), Zubair Shafiq (University of California, Davis)Wed, 11 Ma💻 cs

CyberThreat-Eval: Can Large Language Models Automate Real-World Threat Research?

Il paper introduce CyberThreat-Eval, un benchmark basato su flussi di lavoro reali e annotato da esperti per valutare le capacità dei modelli linguistici nell'automazione della ricerca sulle minacce informatiche, evidenziando le loro attuali limitazioni e proponendo un approccio iterativo con feedback umano.

Xiangsen Chen, Xuan Feng, Shuo Chen, Matthieu Maitre, Sudipto Rakshit, Diana Duvieilh, Ashley Picone, Nan TangWed, 11 Ma💬 cs.CL