Shadow in the Cache: Unveiling and Mitigating Privacy Risks of KV-cache in LLM Inference

Cet article révèle que le cache KV, essentiel à l'inférence des grands modèles de langage, expose des risques de confidentialité critiques permettant la reconstruction des entrées utilisateurs, et propose KV-Cloak, une méthode de défense légère et efficace qui sécurise ce cache sans dégrader les performances ni la précision du modèle.

Zhifan Luo, Shuo Shao, Su Zhang, Lijing Zhou, Yuke Hu, Chenxu Zhao, Zhihao Liu, Zhan QinThu, 12 Ma💬 cs.CL

Hierarchical Dual-Strategy Unlearning for Biomedical and Healthcare Intelligence Using Imperfect and Privacy-Sensitive Medical Data

Cet article présente un cadre d'oubli sélectif hiérarchique à double stratégie qui, en combinant des mises à jour de gradient géométriquement contraintes et des interventions au niveau des tokens, permet d'effacer efficacement des connaissances médicales spécifiques tout en préservant les compétences fondamentales et la confidentialité des données sensibles.

Yi Zhang, Chao Zhang, Zijian Li, Tianxiang Xu, Kunyu Zhang, Zhan Gao, Meinuo Li, Xiaohan Zhang, Qichao Qi, Bing ChenThu, 12 Ma🤖 cs.LG

Beyond Max Tokens: Stealthy Resource Amplification via Tool Calling Chains in LLM Agents

Cet article présente une attaque de déni de service économique furtive et multi-tours contre les agents LLM, exploitant le protocole MCP pour déclencher des chaînes d'appels d'outils excessivement longues via des modifications textuelles optimisées par recherche arborescente, augmentant ainsi considérablement les coûts et la consommation de ressources tout en contournant les filtres de sécurité traditionnels.

Kaiyu Zhou, Yongsen Zheng, Yicheng He, Meng Xue, Xueluan Gong, Yuji Wang, Xuanye Zhang, Kwok-Yan LamThu, 12 Ma🤖 cs.AI

Adversarial Hubness Detector: Detecting Hubness Poisoning in Retrieval-Augmented Generation Systems

Ce papier présente Hubscan, un scanner de sécurité open-source conçu pour détecter le « hubness poisoning » dans les systèmes de génération augmentée par récupération (RAG) en utilisant une architecture multi-détecteurs pour identifier les vecteurs malveillants qui faussent les résultats de recherche.

Idan Habler, Vineeth Sai Narajala, Stav Koren, Amy Chang, Tiffany SaadeThu, 12 Ma🤖 cs.AI

Defensive Refusal Bias: How Safety Alignment Fails Cyber Defenders

Cette étude révèle que l'alignement de sécurité des grands modèles de langage entraîne un « biais de refus défensif », les amenant à rejeter injustement des requêtes légitimes de cybersécurité contenant des mots-clés sensibles, un problème aggravé par les justifications d'autorisation et particulièrement critique pour les agents de défense autonomes.

David Campbell, Neil Kale, Udari Madhushani Sehwag, Bert Herring, Nick Price, Dan Borges, Alex Levinson, Christina Q KnightThu, 12 Ma🤖 cs.AI

Evaluating Generalization Mechanisms in Autonomous Cyber Attack Agents

Cette étude évalue la capacité de généralisation d'agents cyberattaquants autonomes face à des réaffectations d'adresses IP inattendues, révélant que bien que les agents basés sur les grands modèles de langage obtiennent les meilleurs résultats sur des scénarios non vus, ils le font au prix d'une complexité computationnelle accrue et de défaillances pratiques telles que des boucles d'actions invalides.

Ondřej Lukáš, Jihoon Shin, Emilia Rivas, Diego Forni, Maria Rigaki, Carlos Catania, Aritran Piplai, Christopher Kiekintveld, Sebastian GarciaThu, 12 Ma💻 cs

Where Do Flow Semantics Reside? A Protocol-Native Tabular Pretraining Paradigm for Encrypted Traffic Classification

Ce papier propose FlowSem-MAE, une approche de préentraînement tabulaire native aux protocoles qui, en exploitant les unités sémantiques de flux et en corrigeant les biais inductifs des méthodes séquentielles existantes, surpasse l'état de l'art pour la classification du trafic chiffré avec seulement la moitié des données étiquetées.

Sizhe Huang, Shujie YangThu, 12 Ma🤖 cs.AI

SBOMs into Agentic AIBOMs: Schema Extensions, Agentic Orchestration, and Reproducibility Evaluation

Cet article présente les AIBOMs, une extension dynamique des SBOMs basée sur une architecture multi-agents autonomes qui enrichit la traçabilité des chaînes d'approvisionnement logicielles en capturant le comportement d'exécution, la dérive environnementale et le contexte d'exploitabilité pour améliorer la reproductibilité et l'évaluation des vulnérabilités.

Petar Radanliev, Carsten Maple, Omar Santos, Kayvan AtefiThu, 12 Ma🤖 cs.AI

Building Privacy-and-Security-Focused Federated Learning Infrastructure for Global Multi-Centre Healthcare Research

Cet article présente FLA³, une plateforme d'apprentissage fédéré intégrant des mécanismes de gouvernance stricts (authentification, autorisation et comptabilité) pour permettre des recherches cliniques collaboratives transfrontalières tout en garantissant la confidentialité des données et la conformité réglementaire.

Fan Zhang, Daniel Kreuter, Javier Fernandez-Marques, BloodCounts Consortium, Gregory Verghese, Bernard Butler, Nicholas Lane, Suthesh Sivapalaratnam, Joseph Taylor, Norbert C. J. de Wit, Nicholas S. Gleadall, Carola-Bibiane Schönlieb, Michael RobertsThu, 12 Ma💻 cs

Why LLMs Fail: A Failure Analysis and Partial Success Measurement for Automated Security Patch Generation

Cette étude analyse les échecs des modèles de langage dans la génération de correctifs de sécurité pour 64 vulnérabilités Java, révélant que bien que ces modèles préservent souvent la fonctionnalité, ils échouent majoritairement à résoudre les problèmes de sécurité en raison d'incompréhensions sémantiques, ce qui justifie la nécessité d'une validation rigoureuse avant déploiement.

Amir Al-MaamariThu, 12 Ma🤖 cs.AI

TASER: Task-Aware Spectral Energy Refine for Backdoor Suppression in UAV Swarms Decentralized Federated Learning

Le papier propose TASER, un cadre de défense décentralisé innovant pour les essaims de drones utilisant l'apprentissage fédéré, qui supprime les attaques par porte dérobée en exploitant la concentration spectrale des gradients pour préserver les coefficients de fréquence pertinents pour la tâche principale tout en éliminant les composantes malveillantes.

Sizhe Huang, Shujie YangThu, 12 Ma🤖 cs.AI