Fast and Robust Speckle Pattern Authentication by Scale Invariant Feature Transform algorithm in Physical Unclonable Functions

Este trabajo presenta un método de autenticación rápido y robusto para Funciones Físicas Inclonables (PUF) ópticas que utiliza el algoritmo SIFT para extraer características invariantes de los patrones de speckle, permitiendo una identificación fiable incluso ante rotaciones, zoom o recortes en las respuestas.

Giuseppe Emanuele Lio, Mauro Daniel Luigi Bruno, Francesco Riboli + 2 more2026-03-06🔬 physics.optics

CyberSleuth: Autonomous Blue-Team LLM Agent for Web Attack Forensics

El artículo presenta CyberSleuth, un agente autónomo basado en LLM que automatiza la investigación forense de ciberataques mediante el análisis de trazas de red, logrando un 80% de precisión en la identificación de servicios comprometidos y la correlación de exploits con CVEs, y demostrando que la especialización multiagente y una orquestación simple son clave para superar las limitaciones actuales de razonamiento a largo plazo en ciberseguridad.

Stefano Fumero, Kai Huang, Matteo Boffa, Danilo Giordano, Marco Mellia, Dario Rossi2026-03-06🔒 cs.CR

Breaking and Fixing Defenses Against Control-Flow Hijacking in Multi-Agent Systems

Este artículo demuestra que las defensas actuales contra el secuestro del flujo de control en sistemas multiagente son vulnerables debido a conflictos inherentes entre seguridad y funcionalidad, y propone ControlValve, un nuevo mecanismo que combina la integridad del flujo de control y el principio de menor privilegio para garantizar ejecuciones seguras.

Rishi Jha, Harold Triedman, Justin Wagle, Vitaly Shmatikov2026-03-06🔒 cs.CR

GhostEI-Bench: Do Mobile Agents Resilience to Environmental Injection in Dynamic On-Device Environments?

Este trabajo presenta GhostEI-Bench, el primer marco de evaluación que demuestra la vulnerabilidad de los agentes móviles basados en modelos de visión y lenguaje ante ataques de inyección ambiental en entornos dinámicos, donde elementos de interfaz adversarios engañan la percepción visual y comprometen la seguridad del dispositivo.

Chiyu Chen, Xinhao Song, Yunkai Chai, Yang Yao, Haodong Zhao, Lijun Li, Jie Li, Yan Teng, Gongshen Liu, Yingchun Wang2026-03-06🔒 cs.CR

Zombie Agents: Persistent Control of Self-Evolving LLM Agents via Self-Reinforcing Injections

Este artículo presenta el ataque "Zombie Agent", una vulnerabilidad de seguridad en agentes LLM autoevolutivos donde un atacante inyecta persistentemente una carga maliciosa en la memoria a largo plazo del agente mediante contenido web controlado, logrando así un control duradero que evade las defensas tradicionales centradas en el filtrado por sesión.

Xianglin Yang, Yufei He, Shuo Ji, Bryan Hooi, Jin Song Dong2026-03-06🔒 cs.CR

UC-Secure Star DKG for Non-Exportable Key Shares with VSS-Free Enforcement

El artículo presenta Star DKG (SDKG), un esquema de generación distribuida de claves UC-seguro diseñado para entornos de claves no exportables en módulos de hardware, que logra consistencia afín y extracción en línea mediante la combinación de certificados de verificación de estructura única y pruebas de conocimiento cero no interactivas, permitiendo así la creación de carteras umbral multi-dispositivo con una estructura de acceso en estrella.

Vipin Singh Sehrawat2026-03-06🔒 cs.CR

Lap2: Revisiting Laplace DP-SGD for High Dimensions via Majorization Theory

Este trabajo presenta Lap2, un nuevo enfoque que supera las limitaciones de dimensionalidad del mecanismo de Laplace en el entrenamiento de modelos grandes con privacidad diferencial al permitir el recorte L2 mediante teoría de mayorización, logrando así un rendimiento comparable o superior al de los métodos gaussianos.

Meisam Mohammady, Qin Yang, Nicholas Stout, Ayesha Samreen, Han Wang, Christopher J Quinn, Yuan Hong2026-03-06🔒 cs.CR

Jailbreak Foundry: From Papers to Runnable Attacks for Reproducible Benchmarking

El sistema JAILBREAK FOUNDRY (JBF) soluciona la obsolescencia de las evaluaciones de seguridad en modelos de lenguaje mediante un flujo de trabajo multiagente que traduce automáticamente artículos académicos sobre jailbreaks en módulos ejecutables estandarizados, logrando una alta fidelidad en la reproducción de ataques y reduciendo significativamente el código de implementación necesario.

Zhicheng Fang, Jingjie Zheng, Chenxu Fu, Wei Xu2026-03-06🔒 cs.CR

Real Money, Fake Models: Deceptive Model Claims in Shadow APIs

Este estudio presenta la primera auditoría sistemática de las "APIs sombra" que prometen acceso a modelos de lenguaje avanzados, revelando mediante evidencia directa e indirecta prácticas engañosas que incluyen divergencias de rendimiento, comportamientos de seguridad impredecibles y fallos de verificación de identidad, lo que compromete gravemente la validez de la investigación científica y perjudica tanto a los usuarios como a los proveedores oficiales.

Yage Zhang, Yukun Jiang, Zeyuan Chen, Michael Backes, Xinyue Shen, Yang Zhang2026-03-06🔒 cs.CR

Reckless Designs and Broken Promises: Privacy Implications of Targeted Interactive Advertisements on Social Media Platforms

Este estudio revela que el diseño interactivo predeterminado de los anuncios en plataformas como TikTok, Facebook e Instagram crea una brecha de privacidad que permite a los anunciantes identificar a los usuarios que interactúan con sus campañas, contradiciendo las promesas de protección de datos y sugiriendo modificaciones de diseño para garantizar la transparencia.

Julia B. Kieserman, Athanasios Andreou, Laura Edelson, Sandra Siby, Damon McCoy2026-03-06🔒 cs.CR

How Effective Are Publicly Accessible Deepfake Detection Tools? A Comparative Evaluation of Open-Source and Free-to-Use Platforms

Este estudio evalúa comparativamente herramientas forenses y clasificadores de IA para la detección de deepfakes, revelando que, aunque los profesionales humanos superan ampliamente a todas las herramientas automatizadas, estas últimas presentan patrones complementarios de rendimiento (alta sensibilidad frente a alta especificidad) y que el juicio humano prevalece en la mayoría de los desacuerdos.

Michael Rettinger, Ben Beaumont, Nhien-An Le-Khac, Hong-Hanh Nguyen-Le2026-03-06🔒 cs.CR

Benchmark of Benchmarks: Unpacking Influence and Code Repository Quality in LLM Safety Benchmarks

Este estudio evalúa por primera vez la influencia académica y la calidad del código de 31 benchmarks de seguridad en LLM, revelando que, aunque los benchmarks no superan a otros trabajos en impacto académico, existe una desconexión significativa entre la prominencia de los autores y la calidad del código, evidenciando una necesidad urgente de mejorar la reutilización y los estándares éticos en los repositorios.

Junjie Chu, Xinyue Shen, Ye Leng, Michael Backes, Yun Shen, Yang Zhang2026-03-06🔒 cs.CR