Shadow in the Cache: Unveiling and Mitigating Privacy Risks of KV-cache in LLM Inference

Este artículo expone por primera vez los riesgos de privacidad en la caché KV de los modelos de lenguaje grandes, demostrando cómo un atacante puede reconstruir entradas sensibles mediante tres vectores de ataque, y propone KV-Cloak, un mecanismo de defensa ligero y reversible que elimina estas vulnerabilidades sin degradar el rendimiento ni la precisión del modelo.

Zhifan Luo, Shuo Shao, Su Zhang, Lijing Zhou, Yuke Hu, Chenxu Zhao, Zhihao Liu, Zhan QinThu, 12 Ma💬 cs.CL

Hierarchical Dual-Strategy Unlearning for Biomedical and Healthcare Intelligence Using Imperfect and Privacy-Sensitive Medical Data

Este artículo presenta un marco de olvido selectivo jerárquico de doble estrategia que, mediante actualizaciones de gradiente geométricamente restringidas e intervenciones a nivel de tokens conscientes de conceptos, elimina eficazmente conocimientos médicos específicos de grandes modelos de lenguaje preservando sus competencias fundamentales y garantizando la privacidad con una modificación mínima de parámetros.

Yi Zhang, Chao Zhang, Zijian Li, Tianxiang Xu, Kunyu Zhang, Zhan Gao, Meinuo Li, Xiaohan Zhang, Qichao Qi, Bing ChenThu, 12 Ma🤖 cs.LG

Burn-After-Use for Preventing Data Leakage through a Secure Multi-Tenant Architecture in Enterprise LLM

Este estudio presenta una arquitectura multi-tenant segura combinada con un mecanismo de "destrucción tras el uso" para entornos de LLM empresariales, logrando aislar instancias y eliminar contextos efímeros para prevenir eficazmente la fuga de datos mediante una alta tasa de éxito en pruebas de defensa contra ataques de filtración y persistencia.

Qiang Zhang, Elena Emma Wang, Jiaming Li, Xichun WangThu, 12 Ma🤖 cs.AI

Beyond Max Tokens: Stealthy Resource Amplification via Tool Calling Chains in LLM Agents

Este artículo presenta un ataque de denegación de servicio económico y sigiloso para agentes de LLM que, mediante la manipulación de llamadas a herramientas bajo el Protocolo de Contexto del Modelo (MCP) y optimizado con Búsqueda de Árbol Monte Carlo, genera cadenas de interacción prolongadas que multiplican drásticamente los costos y el consumo de recursos sin ser detectado por filtros convencionales.

Kaiyu Zhou, Yongsen Zheng, Yicheng He, Meng Xue, Xueluan Gong, Yuji Wang, Xuanye Zhang, Kwok-Yan LamThu, 12 Ma🤖 cs.AI

Adversarial Hubness Detector: Detecting Hubness Poisoning in Retrieval-Augmented Generation Systems

El artículo presenta "hubscan", un escáner de seguridad de código abierto diseñado para detectar y mitigar el envenenamiento por hubness en sistemas de Generación Aumentada por Recuperación (RAG) mediante un análisis estadístico y estructural avanzado de índices vectoriales, logrando una alta tasa de recuperación de ataques adversarios en diversos entornos y bases de datos.

Idan Habler, Vineeth Sai Narajala, Stav Koren, Amy Chang, Tiffany SaadeThu, 12 Ma🤖 cs.AI

Defensive Refusal Bias: How Safety Alignment Fails Cyber Defenders

El estudio revela que la alineación de seguridad en los modelos de lenguaje grandes genera un "sesgo de rechazo defensivo", negando asistencia a tareas cibernéticas legítimas y críticas cuando contienen palabras sensibles, incluso con autorización explícita, debido a que priorizan la similitud semántica con contenido dañino sobre el análisis de la intención del usuario.

David Campbell, Neil Kale, Udari Madhushani Sehwag, Bert Herring, Nick Price, Dan Borges, Alex Levinson, Christina Q KnightThu, 12 Ma🤖 cs.AI

Evaluating Generalization Mechanisms in Autonomous Cyber Attack Agents

Este artículo evalúa la capacidad de generalización de agentes de ciberataque autónomos ante cambios en la asignación de direcciones IP, concluyendo que aunque los agentes impulsados por LLM logran el mejor rendimiento en escenarios no vistos, lo hacen a costa de un mayor consumo computacional, menor transparencia y la aparición de fallos prácticos como bucles de acciones inválidas.

Ondřej Lukáš, Jihoon Shin, Emilia Rivas, Diego Forni, Maria Rigaki, Carlos Catania, Aritran Piplai, Christopher Kiekintveld, Sebastian GarciaThu, 12 Ma💻 cs

Where Do Flow Semantics Reside? A Protocol-Native Tabular Pretraining Paradigm for Encrypted Traffic Classification

El artículo propone FlowSem-MAE, un paradigma de preentrenamiento tabular nativo de protocolos que supera las limitaciones de los enfoques basados en secuencias al preservar la semántica de los campos definidos por el protocolo mediante unidades semánticas de flujo (FSU), logrando una clasificación superior de tráfico cifrado con la mitad de datos etiquetados.

Sizhe Huang, Shujie YangThu, 12 Ma🤖 cs.AI

SBOMs into Agentic AIBOMs: Schema Extensions, Agentic Orchestration, and Reproducibility Evaluation

Este artículo presenta los AIBOMs (Facturas de Materiales de Inteligencia Artificial), una extensión de las SBOMs tradicionales mediante una arquitectura multiagente autónoma que captura el comportamiento en tiempo real y la deriva del entorno para generar afirmaciones de explotabilidad contextualizadas y reproducibles, mejorando así la seguridad de la cadena de suministro de software.

Petar Radanliev, Carsten Maple, Omar Santos, Kayvan AtefiThu, 12 Ma🤖 cs.AI

Building Privacy-and-Security-Focused Federated Learning Infrastructure for Global Multi-Centre Healthcare Research

Este artículo presenta FLA³, una plataforma de aprendizaje federado que integra controles de autenticación, autorización y contabilidad para habilitar la investigación clínica global segura y cumplir con las normativas de privacidad sin compartir datos.

Fan Zhang, Daniel Kreuter, Javier Fernandez-Marques, BloodCounts Consortium, Gregory Verghese, Bernard Butler, Nicholas Lane, Suthesh Sivapalaratnam, Joseph Taylor, Norbert C. J. de Wit, Nicholas S. Gleadall, Carola-Bibiane Schönlieb, Michael RobertsThu, 12 Ma💻 cs

ADVERSA: Measuring Multi-Turn Guardrail Degradation and Judge Reliability in Large Language Models

El artículo presenta ADVERSA, un marco de red-teaming automatizado que evalúa la degradación progresiva de las defensas de seguridad en modelos de lenguaje grandes mediante interacciones multi-turno, revelando que los jailbreaks exitosos tienden a ocurrir en las primeras rondas y destacando la importancia de medir la fiabilidad de los jueces y los sesgos de los atacantes.

Harry Owiredu-AshleyThu, 12 Ma🤖 cs.AI

Why LLMs Fail: A Failure Analysis and Partial Success Measurement for Automated Security Patch Generation

Este estudio analiza el rendimiento de los modelos de lenguaje grandes (LLM) en la generación de parches de seguridad para vulnerabilidades Java, revelando que, aunque preservan la funcionalidad, sufre un alto índice de fracaso debido a malentendidos semánticos que comprometen la seguridad, lo que subraya la necesidad de validación rigurosa antes de su despliegue.

Amir Al-MaamariThu, 12 Ma🤖 cs.AI