SecureRAG-RTL: A Retrieval-Augmented, Multi-Agent, Zero-Shot LLM-Driven Framework for Hardware Vulnerability Detection

O artigo propõe o SecureRAG-RTL, um framework baseado em Geração Aumentada por Recuperação (RAG) e múltiplos agentes que melhora significativamente a detecção de vulnerabilidades em projetos de hardware descritos em HDL ao integrar conhecimento específico do domínio, superando as limitações dos modelos de linguagem pura e apresentando um novo conjunto de dados de benchmark para validação.

Touseef Hasan, Blessing Airehenbuwa, Nitin Pundir, Souvika Sarkar, Ujjwal GuinMon, 09 Ma🤖 cs.AI

Knowing without Acting: The Disentangled Geometry of Safety Mechanisms in Large Language Models

Este artigo propõe a Hipótese de Segurança Desentrelaçada (DSH), demonstrando que os mecanismos de segurança em Grandes Modelos de Linguagem operam em subespaços geométricos distintos para "saber" e "agir", o que permite a criação de ataques de evasão eficazes que separam o reconhecimento de conteúdo nocivo da recusa em respondê-lo.

Jinman Wu, Yi Xie, Shen Lin, Shiqian Zhao, Xiaofeng ChenMon, 09 Ma🤖 cs.AI

Proof-of-Guardrail in AI Agents and What (Not) to Trust from It

Este artigo propõe o "Proof-of-Guardrail", um sistema que utiliza Ambientes de Execução Confiáveis (TEE) para fornecer provas criptográficas verificáveis de que as respostas de agentes de IA foram processadas por guardrails de segurança específicos, garantindo a integridade da execução sem revelar o agente proprietário, embora alerte para riscos persistentes de desvio de segurança por desenvolvedores mal-intencionados.

Xisen Jin, Michael Duan, Qin Lin, Aaron Chan, Zhenglun Chen, Junyi Du, Xiang RenMon, 09 Ma🤖 cs.AI

A Quantization-Aware Training Based Lightweight Method for Neural Distinguishers

Este artigo propõe um método de treinamento consciente de quantização para criar um distinguidor neural leve baseado em operações booleanas, que reduz drasticamente a complexidade computacional ao substituir multiplicações de 32 bits por lógica booleana e funções indicadoras, mantendo uma alta precisão na análise criptográfica do cipher SPECK.

Guangwei Xiong, Linyuan Wang, Zhizhong Zheng, Senbao Hou, Bin YanMon, 09 Ma💻 cs

SemFuzz: A Semantics-Aware Fuzzing Framework for Network Protocol Implementations

O artigo apresenta o SemFuzz, um framework de fuzzing consciente de semântica que utiliza modelos de linguagem grandes para extrair regras de especificações RFC e gerar casos de teste que violam intencionalmente essas regras, demonstrando eficácia na descoberta de vulnerabilidades semânticas profundas em implementações de protocolos de rede.

Yanbang Sun, Quan Luo, Yuelin Wang, Qian Chen, Benjin Liu, Ruiqi Chen, Qing Huang, Xiaohong Li, Junjie WangMon, 09 Ma💻 cs

When Specifications Meet Reality: Uncovering API Inconsistencies in Ethereum Infrastructure

O artigo apresenta o APIDiffer, o primeiro framework de teste diferencial guiado por especificações que automatiza a detecção de inconsistências em APIs da infraestrutura Ethereum, identificando 72 bugs em 11 clientes principais com maior cobertura de código e menor taxa de falsos positivos do que as abordagens existentes.

Jie Ma, Ningyu He, Jinwen Xi, Mingzhe Xing, Liangxin Liu, Jiushenzi Luo, Xiaopeng Fu, Chiachih Wu, Haoyu Wang, Ying Gao, Yinliang YueMon, 09 Ma💻 cs

An Integrated Failure and Threat Mode and Effect Analysis (FTMEA) Framework with Quantified Cross-Domain Correlation Factors for Automotive Semiconductors

Este artigo apresenta um framework integrado de Análise de Modo de Falha e Ameaça e seus Efeitos (FTMEA) para semicondutores automotivos, que utiliza fatores de correlação interdomínio quantificados para unificar a avaliação de segurança funcional e cibersegurança, permitindo uma priorização de riscos mais precisa e a identificação de vulnerabilidades cruzadas que métodos tradicionais ignoram.

Antonino Armato, Marzana Khatun, Sebastian FischerMon, 09 Ma💻 cs

ESAA-Security: An Event-Sourced, Verifiable Architecture for Agent-Assisted Security Audits of AI-Generated Code

O artigo apresenta o ESAA-Security, uma arquitetura de auditoria de segurança baseada em eventos e verificável que transforma a revisão de código gerado por IA de conversas livres em um processo governado, reprodutível e com rastro de auditoria imutável, estruturado em fases de reconhecimento, execução, classificação de riscos e relatórios.

Elzo Brito dos Santos FilhoMon, 09 Ma🤖 cs.AI