Execution Is the New Attack Surface: Survivability-Aware Agentic Crypto Trading with OpenClaw-Style Local Executors

El artículo propone un estándar de ejecución consciente de la supervivencia (SAE) para sistemas de trading criptográfico con agentes tipo OpenClaw, que mitiga los riesgos de ejecución no autorizada mediante invariantes de última milla y métricas de brecha de delegación, logrando reducciones drásticas en la pérdida máxima y el riesgo de cola en pruebas con datos reales de Binance.

Ailiya Borjigin, Igor Stadnyk, Ben Bilski, Serhii Hovorov, Sofiia PidturkinaThu, 12 Ma🤖 cs.AI

Denoising the US Census: Succinct Block Hierarchical Regression

Este trabajo presenta BlueDown, un nuevo método de post-procesamiento que mejora la precisión de las estimaciones del Censo de EE. UU. mediante una regresión de mínimos cuadrados generalizada jerárquica y operaciones algebraicas concisas, logrando así estimaciones más exactas y consistentes que el sistema actual TopDown mientras se mantienen las garantías de privacidad y las restricciones estructurales.

Badih Ghazi, Pritish Kamath, Ravi Kumar, Pasin Manurangsi, Adam SealfonThu, 12 Ma🤖 cs.LG

Compatibility at a Cost: Systematic Discovery and Exploitation of MCP Clause-Compliance Vulnerabilities

Este trabajo presenta el primer marco sistemático para descubrir y explotar vulnerabilidades en las implementaciones de SDK del Protocolo de Contexto de Modelo (MCP) que surgen del relajamiento de cláusulas para garantizar la compatibilidad, utilizando un generador de representación intermedia universal y análisis estático guiado por LLM para identificar ataques de abuso de compatibilidad como inyección de prompts silenciosa y denegación de servicio.

Nanzi Yang, Weiheng Bai, Kangjie LuThu, 12 Ma🤖 cs.AI

MCP-in-SoS: Risk assessment framework for open-source MCP servers

Este artículo presenta un marco de evaluación de riesgos para servidores MCP de código abierto que, mediante análisis de código estático y mapeo a taxonomías de amenazas, identifica vulnerabilidades explotables y propone un sistema de puntuación para garantizar despliegues de agentes de IA más seguros.

Pratyay Kumar, Miguel Antonio Guirao Aguilera, Srikathyayani Srikanteswara, Satyajayant Misra, Abu Saleh Md TayeenThu, 12 Ma🤖 cs.AI

Paladin: A Policy Framework for Securing Cloud APIs by Combining Application Context with Generative AI

El marco de trabajo Paladin utiliza modelos de lenguaje grandes para extraer el significado semántico de las solicitudes de API y permitir a los administradores definir y aplicar políticas de seguridad específicas del contexto de la aplicación que previenen el consumo ilimitado de recursos, el acceso no autorizado a flujos de negocio sensibles y la autenticación defectuosa, todo ello con un rendimiento eficiente.

Shriti Priya, Julian James Stephen, Arjun NatarajanThu, 12 Ma💻 cs

ACE Runtime - A ZKP-Native Blockchain Runtime with Sub-Second Cryptographic Finality

El artículo presenta ACE Runtime, un entorno de ejecución nativo de pruebas de conocimiento cero que logra una finalidad criptográfica en menos de un segundo mediante la separación de identidad y autorización, reemplazando las verificaciones de firmas por transacción con atestaciones HMAC ligeras y una única prueba agregada por bloque para reducir la carga computacional y facilitar la migración post-cuántica.

Jian Sheng WangThu, 12 Ma💻 cs

Post-Quantum Entropy as a Service for Embedded Systems

Este artículo presenta un sistema de Entropía Cuántica como Servicio (QEaaS) para dispositivos embebidos que, al combinar un servidor de entropía cuántica con protocolos post-cuánticos en el cliente, logra que el intercambio de claves y la autenticación sean hasta un 63% más rápidos que las soluciones clásicas en hardware ESP32.

Javier Blanco-Romero, Yuri Melissa Garcia-Niño, Florina Almenares Mendoza, Daniel Díaz-Sánchez, Carlos García-Rubio, Celeste CampoThu, 12 Ma💻 cs

PRoADS: Provably Secure and Robust Audio Diffusion Steganography with latent optimization and backward Euler Inversion

El artículo presenta PRoADS, un marco de esteganografía de audio basado en modelos de difusión que logra una seguridad probada y una alta robustez mediante la proyección de mensajes secretos en el ruido inicial y la optimización de la inversión mediante técnicas de Latent Optimization y Backward Euler, logrando una tasa de error de bits extremadamente baja del 0,15% incluso bajo compresión MP3.

YongPeng Yan, Yanan Li, Qiyang Xiao, Yanzhen RenThu, 12 Ma💻 cs

The Orthogonal Vulnerabilities of Generative AI Watermarks: A Comparative Empirical Benchmark of Spatial and Latent Provenance

Este estudio demuestra empíricamente que las marcas de agua de IA generativa en dominios espaciales y latentes poseen vulnerabilidades ortogonales y mutuamente excluyentes frente a herramientas de edición modernas, revelando la insuficiencia de los enfoques de un solo dominio y la necesidad urgente de arquitecturas criptográficas multi-dominio para garantizar la procedencia digital.

Jesse Yu, Nicholas WeiThu, 12 Ma💻 cs

Silent Subversion: Sensor Spoofing Attacks via Supply Chain Implants in Satellite Systems

Este artículo presenta una demostración de un ataque de suplantación de sensores en satélites mediante componentes comprometidos de la cadena de suministro, que logra engañar tanto a los sistemas de navegación a bordo como a las estaciones terrestres, subrayando la necesidad urgente de contramedidas como la autenticación de telemetría y el monitoreo de la procedencia de los componentes.

Jack Vanlyssel, Gruia-Catalin Roman, Afsah AnwarThu, 12 Ma💻 cs

Enhancing Network Intrusion Detection Systems: A Multi-Layer Ensemble Approach to Mitigate Adversarial Attacks

Este trabajo propone un mecanismo de defensa multinivel que combina clasificadores apilados, un autoencoder y entrenamiento adversarial para mejorar la robustez de los sistemas de detección de intrusos en redes frente a ataques generados mediante GAN y FGSM.

Nasim Soltani, Shayan Nejadshamsi, Zakaria Abou El Houda, Raphael Khoury, Kelton A. P. Costa, Tiago H. Falk, Anderson R. AvilaThu, 12 Ma🤖 cs.AI

Naïve Exposure of Generative AI Capabilities Undermines Deepfake Detection

Este trabajo demuestra que la exposición ingenua de las capacidades de refinamiento y razonamiento de los sistemas de IA generativa comercial, accesibles mediante instrucciones benignas, socava fundamentalmente a los detectores de deepfakes actuales al permitir la creación de imágenes que evaden la detección, preservan la identidad y mejoran la calidad perceptual, revelando una desconexión crítica entre los modelos de amenazas existentes y las capacidades reales de estas herramientas.

Sunpill Kim, Chanwoo Hwang, Minsu Kim, Jae Hong SeoThu, 12 Ma🤖 cs.AI

IH-Challenge: A Training Dataset to Improve Instruction Hierarchy on Frontier LLMs

El artículo presenta IH-Challenge, un conjunto de datos de aprendizaje por refuerzo diseñado para mejorar la jerarquía de instrucciones en modelos de lenguaje avanzados, logrando una mayor robustez contra ataques de inyección y jailbreaks sin comprometer su utilidad general.

Chuan Guo (Michael Pokorny), Juan Felipe Ceron Uribe (Michael Pokorny), Sicheng Zhu (Michael Pokorny), Christopher A. Choquette-Choo (Michael Pokorny), Steph Lin (Michael Pokorny), Nikhil Kandpal (Michael Pokorny), Milad Nasr (Michael Pokorny), Rai (Michael Pokorny), Sam Toyer, Miles Wang, Yaodong Yu, Alex Beutel, Kai XiaoThu, 12 Ma🤖 cs.AI

An Approach for Safe and Secure Software Protection Supported by Symbolic Execution

Este artículo presenta un nuevo método de protección de software para sistemas de control industrial que utiliza funciones físicamente no clonables (PUF) para vincular el programa al hardware y la ejecución simbólica para garantizar la seguridad y la preservación de las propiedades de seguridad ante intentos de ingeniería inversa o ejecución en máquinas no autorizadas.

Daniel Dorfmeister, Flavio Ferrarotti, Bernhard Fischer, Evelyn Haslinger, Rudolf Ramler, Markus ZimmermannThu, 12 Ma💻 cs

Repurposing Backdoors for Good: Ephemeral Intrinsic Proofs for Verifiable Aggregation in Cross-silo Federated Learning

Este artículo propone un marco ligero para la agregación verificable en el aprendizaje federado entre silos que reutiliza inyecciones de puertas traseras para crear pruebas intrínsecas efímeras, logrando una detección robusta de servidores maliciosos con una aceleración superior a 1000 veces en comparación con los métodos criptográficos tradicionales.

Xian Qin, Xue Yang, Xiaohu TangThu, 12 Ma🤖 cs.AI

CacheSolidarity: Preventing Prefix Caching Side Channels in Multi-tenant LLM Serving Systems

El sistema CacheSolidarity protege los entornos de inferencia de LLMs multi-tenant contra canales laterales de tiempo derivados de la caché de prefijos, logrando un equilibrio entre seguridad y eficiencia al aislar selectivamente solo los prefijos sospechosos en lugar de desactivar completamente el uso compartido de caché.

Panagiotis Georgios Pennas, Konstantinos Papaioannou, Marco Guarnieri, Thaleia Dimitra DoudaliThu, 12 Ma🤖 cs.LG