Shadow in the Cache: Unveiling and Mitigating Privacy Risks of KV-cache in LLM Inference

Questo articolo analizza per la prima volta i rischi di privacy legati alla cache KV nell'inferenza dei grandi modelli linguistici, dimostrando come sia possibile ricostruire input sensibili e proponendo KV-Cloak, un meccanismo di difesa leggero ed efficiente che neutralizza tali minacce senza compromettere accuratezza o prestazioni.

Zhifan Luo, Shuo Shao, Su Zhang, Lijing Zhou, Yuke Hu, Chenxu Zhao, Zhihao Liu, Zhan QinThu, 12 Ma💬 cs.CL

Hierarchical Dual-Strategy Unlearning for Biomedical and Healthcare Intelligence Using Imperfect and Privacy-Sensitive Medical Data

Questo articolo presenta un framework di disapprendimento gerarchico a doppia strategia che, integrando aggiornamenti del gradiente vincolati geometricamente e interventi a livello di token consapevoli dei concetti, rimuove selettivamente conoscenze mediche specifiche da modelli linguistici preservando le competenze fondamentali e garantendo la privacy con modifiche minime ai parametri.

Yi Zhang, Chao Zhang, Zijian Li, Tianxiang Xu, Kunyu Zhang, Zhan Gao, Meinuo Li, Xiaohan Zhang, Qichao Qi, Bing ChenThu, 12 Ma🤖 cs.LG

Burn-After-Use for Preventing Data Leakage through a Secure Multi-Tenant Architecture in Enterprise LLM

Questo studio presenta un'architettura multi-tenant sicura (SMTA) combinata con un meccanismo "Burn-After-Use" (BAU) per prevenire la fuoriuscita di dati negli ambienti aziendali di LLM, garantendo l'isolamento dei contesti conversazionali e la loro distruzione automatica dopo l'uso, come dimostrato da valutazioni sperimentali che conferiscono elevate percentuali di successo nella difesa da attacchi di perdita dati.

Qiang Zhang, Elena Emma Wang, Jiaming Li, Xichun WangThu, 12 Ma🤖 cs.AI

Adversarial Hubness Detector: Detecting Hubness Poisoning in Retrieval-Augmented Generation Systems

Il paper introduce Hubscan, uno scanner di sicurezza open-source progettato per rilevare il "hubness poisoning" nei sistemi Retrieval-Augmented Generation (RAG) attraverso un'architettura multi-rilevatore che combina analisi statistiche, valutazioni di stabilità e adattabilità a diversi database vettoriali, ottenendo prestazioni elevate nel identificare contenuti dannosi su benchmark e dataset reali.

Idan Habler, Vineeth Sai Narajala, Stav Koren, Amy Chang, Tiffany SaadeThu, 12 Ma🤖 cs.AI

Defensive Refusal Bias: How Safety Alignment Fails Cyber Defenders

Il documento rivela che l'allineamento alla sicurezza dei modelli linguistici di grandi dimensioni genera un "pregiudizio di rifiuto difensivo", portandoli a negare ingiustificatamente assistenza a compiti legittimi di cybersecurity quando questi contengono termini sensibili, un problema che peggiora con le autorizzazioni esplicite e che richiede un approccio basato sull'intento piuttosto che sulla semplice similarità semantica.

David Campbell, Neil Kale, Udari Madhushani Sehwag, Bert Herring, Nick Price, Dan Borges, Alex Levinson, Christina Q KnightThu, 12 Ma🤖 cs.AI

Evaluating Generalization Mechanisms in Autonomous Cyber Attack Agents

Questo studio valuta la capacità di generalizzazione di agenti di attacco informatico autonomi di fronte a cambiamenti imprevisti negli indirizzi IP, rivelando che, sebbene gli agenti basati su LLM ottenano i migliori risultati di adattamento, lo fanno a scapito di costi computazionali elevati, ridotta trasparenza e nuove vulnerabilità operative.

Ondřej Lukáš, Jihoon Shin, Emilia Rivas, Diego Forni, Maria Rigaki, Carlos Catania, Aritran Piplai, Christopher Kiekintveld, Sebastian GarciaThu, 12 Ma💻 cs

SBOMs into Agentic AIBOMs: Schema Extensions, Agentic Orchestration, and Reproducibility Evaluation

Questo articolo introduce gli AIBOM (Artificial Intelligence Bills of Materials) agentici, un'estensione dinamica degli SBOM basata su un'architettura multi-agente che integra monitoraggio del runtime, ricostruzione dell'ambiente e ragionamento sulle vulnerabilità per garantire una provenienza del software riproducibile e contestualizzata.

Petar Radanliev, Carsten Maple, Omar Santos, Kayvan AtefiThu, 12 Ma🤖 cs.AI

Building Privacy-and-Security-Focused Federated Learning Infrastructure for Global Multi-Centre Healthcare Research

Il paper presenta FLA³, una piattaforma di apprendimento federato che integra meccanismi di autenticazione, autorizzazione e contabilità (AAA) conformi a XACML per garantire la sovranità dei dati e la conformità normativa, dimostrando attraverso studi reali e simulati che tale approccio governativo permette di ottenere prestazioni predittive paragonabili all'addestramento centralizzato nel contesto della ricerca sanitaria globale.

Fan Zhang, Daniel Kreuter, Javier Fernandez-Marques, BloodCounts Consortium, Gregory Verghese, Bernard Butler, Nicholas Lane, Suthesh Sivapalaratnam, Joseph Taylor, Norbert C. J. de Wit, Nicholas S. Gleadall, Carola-Bibiane Schönlieb, Michael RobertsThu, 12 Ma💻 cs

Why LLMs Fail: A Failure Analysis and Partial Success Measurement for Automated Security Patch Generation

Questo studio analizza i limiti dei modelli linguistici nella generazione automatica di patch di sicurezza per vulnerabilità Java, rivelando che, sebbene preservino spesso la funzionalità, falliscono prevalentemente nel comprendere la semantica corretta delle riparazioni, ottenendo un basso punteggio di sicurezza che ne richiede una validazione rigorosa prima del dispiegamento.

Amir Al-MaamariThu, 12 Ma🤖 cs.AI