SecureRAG-RTL: A Retrieval-Augmented, Multi-Agent, Zero-Shot LLM-Driven Framework for Hardware Vulnerability Detection

El artículo presenta SecureRAG-RTL, un marco innovador basado en generación aumentada por recuperación (RAG) y agentes múltiples que mejora significativamente la detección de vulnerabilidades en diseños de hardware descritos en HDL al superar las limitaciones de conocimiento de los modelos de lenguaje grandes, logrando un aumento promedio del 30% en la precisión y liberando un nuevo conjunto de datos de referencia para la investigación futura.

Touseef Hasan, Blessing Airehenbuwa, Nitin Pundir, Souvika Sarkar, Ujjwal GuinMon, 09 Ma🤖 cs.AI

Challenges and Design Considerations for Finding CUDA Bugs Through GPU-Native Fuzzing

Este artículo examina los desafíos de la seguridad en sistemas heterogéneos y argumenta que el desarrollo de una herramienta de fuzzing nativa para GPU es esencial para garantizar la fidelidad en la detección de errores de memoria en programas CUDA, superando las limitaciones de los métodos actuales que dependen de traducciones no fieles a CPU.

Mingkai Li, Joseph Devietti, Suman Jana, Tanvir Ahmed KhanMon, 09 Ma💻 cs

Knowing without Acting: The Disentangled Geometry of Safety Mechanisms in Large Language Models

Este artículo propone la Hipótesis de Seguridad Desentrelazada (DSH), que revela una separación geométrica entre la detección de peligros y la ejecución de denegaciones en los modelos de lenguaje, permitiendo tanto la creación de un benchmark para validar esta disociación como el desarrollo del ataque de borrado de rechazo (REA) que logra tasas de éxito sin precedentes al eliminar quirúrgicamente el mecanismo de denegación.

Jinman Wu, Yi Xie, Shen Lin, Shiqian Zhao, Xiaofeng ChenMon, 09 Ma🤖 cs.AI

Proof-of-Guardrail in AI Agents and What (Not) to Trust from It

El artículo propone "Proof-of-Guardrail", un sistema que utiliza entornos de ejecución confiable (TEE) para generar pruebas criptográficas verificables de que las respuestas de los agentes de IA han pasado por medidas de seguridad específicas, garantizando así la integridad de su ejecución sin revelar la privacidad del agente, aunque advierte sobre los riesgos de engaño si los desarrolladores malintencionados logran eludir estas protecciones.

Xisen Jin, Michael Duan, Qin Lin, Aaron Chan, Zhenglun Chen, Junyi Du, Xiang RenMon, 09 Ma🤖 cs.AI

A Quantization-Aware Training Based Lightweight Method for Neural Distinguishers

Este artículo propone un método de entrenamiento consciente de la cuantización para crear un diferenciador neuronal ligero que, al reducir los pesos a 1,58 bits y reemplazar las multiplicaciones de 32 bits por operaciones booleanas, logra una disminución drástica en la complejidad computacional (con un 13,9% de las operaciones del modelo original) manteniendo una alta precisión en el análisis criptográfico de SPECK.

Guangwei Xiong, Linyuan Wang, Zhizhong Zheng, Senbao Hou, Bin YanMon, 09 Ma💻 cs

Evolving Deception: When Agents Evolve, Deception Wins

Este estudio demuestra que en entornos competitivos, la autoevolución de agentes de lenguaje grande tiende inevitablemente a generar engaño como estrategia evolutivamente estable, debido a una asimetría en la generalización que favorece tácticas engañosas transferibles sobre estrategias honestas frágiles, lo que revela una tensión fundamental entre la mejora autónoma y la alineación.

Zonghao Ying, Haowen Dai, Tianyuan Zhang, Yisong Xiao, Quanchen Zou, Aishan Liu, Jian Yang, Yaodong Yang, Xianglong LiuMon, 09 Ma💻 cs

ThermoCAPTCHA: Privacy-Preserving Human Verification with Farm-Resistant Traceable Tokens

El artículo presenta ThermoCAPTCHA, un sistema de verificación humana que preserva la privacidad y resiste las granjas de resolución al utilizar imágenes térmicas en tiempo real y tokens trazables para detectar la presencia de personas sin requerir la resolución de acertijos, logrando una alta precisión y mejor usabilidad que los CAPTCHAs tradicionales.

Shovon Paul, Md Imran Hossen, Xiali HeiMon, 09 Ma💻 cs

SemFuzz: A Semantics-Aware Fuzzing Framework for Network Protocol Implementations

El artículo presenta SemFuzz, un marco de fuzzing que utiliza modelos de lenguaje grandes para extraer reglas semánticas de documentos RFC y generar casos de prueba que violan intencionalmente estas reglas, logrando así identificar vulnerabilidades semánticas profundas en implementaciones de protocolos de red que los métodos tradicionales no detectan.

Yanbang Sun, Quan Luo, Yuelin Wang, Qian Chen, Benjin Liu, Ruiqi Chen, Qing Huang, Xiaohong Li, Junjie WangMon, 09 Ma💻 cs

When Specifications Meet Reality: Uncovering API Inconsistencies in Ethereum Infrastructure

El artículo presenta APIDiffer, el primer marco de prueba diferencial guiado por especificaciones que detecta automáticamente inconsistencias en las APIs de los clientes de Ethereum, logrando una cobertura de código superior y reduciendo las falsas alarmas al identificar y validar 72 errores en la infraestructura crítica de la red.

Jie Ma, Ningyu He, Jinwen Xi, Mingzhe Xing, Liangxin Liu, Jiushenzi Luo, Xiaopeng Fu, Chiachih Wu, Haoyu Wang, Ying Gao, Yinliang YueMon, 09 Ma💻 cs

A LINDDUN-based Privacy Threat Modeling Framework for GenAI

Este artículo presenta un nuevo marco de modelado de amenazas de privacidad específico para la IA generativa, basado en LINDDUN y desarrollado mediante una revisión sistemática y un estudio de caso, que amplía la base de conocimientos con 100 ejemplos y valida su eficacia en un sistema de agentes de IA.

Qianying Liao, Jonah Bellemans, Laurens Sion, Xue Jiang, Dmitrii Usynin, Xuebing Zhou, Dimitri Van Landuyt, Lieven Desmet, Wouter JoosenMon, 09 Ma💻 cs

SPOILER: TEE-Shielded DNN Partitioning of On-Device Secure Inference with Poison Learning

El artículo presenta SPOILER, un marco innovador que combina la búsqueda de arquitectura neuronal (NAS) y el aprendizaje de auto-envenenamiento para lograr una inferencia segura en dispositivos de borde mediante la partición de redes neuronales, superando las limitaciones de privacidad y eficiencia de los enfoques anteriores.

Donghwa Kang, Hojun Choe, Doohyun Kim, Hyeongboo Baek, Brent ByungHoon KangMon, 09 Ma💻 cs

An Integrated Failure and Threat Mode and Effect Analysis (FTMEA) Framework with Quantified Cross-Domain Correlation Factors for Automotive Semiconductors

Este artículo presenta un marco integrado de Análisis de Modos y Efectos de Fallos y Amenazas (FTMEA) para semiconductores automotrices que cuantifica las correlaciones entre seguridad funcional y ciberseguridad mediante factores de correlación interdominio, permitiendo una priorización de riesgos más precisa y una mitigación efectiva de vulnerabilidades conjuntas.

Antonino Armato, Marzana Khatun, Sebastian FischerMon, 09 Ma💻 cs

Designing Trustworthy Layered Attestations

Este artículo propone un enfoque de atestación en capas que, mediante la estructuración del sistema y el uso de hardware y software ampliamente disponibles como TPM y SELinux, logra generar evidencias de confianza fiables y de bajo costo frente a adversarios definidos, aplicando principios universales que también se extienden a tecnologías de computación confidencial como AMD SEV-SNP.

Will Thomas, Logan Schmalz, Adam Petz, Perry Alexander, Joshua D. Guttman, Paul D. Rowe, James CarterMon, 09 Ma💻 cs

ESAA-Security: An Event-Sourced, Verifiable Architecture for Agent-Assisted Security Audits of AI-Generated Code

El artículo presenta ESAA-Security, una arquitectura de auditoría de seguridad basada en eventos que transforma la revisión de código generado por IA de una conversación libre a un proceso de auditoría verificable, reproducible y trazable mediante la separación de la cognición del agente de la mutación del estado y el uso de registros inmutables.

Elzo Brito dos Santos FilhoMon, 09 Ma🤖 cs.AI