SecureRAG-RTL: A Retrieval-Augmented, Multi-Agent, Zero-Shot LLM-Driven Framework for Hardware Vulnerability Detection

Ce papier présente SecureRAG-RTL, un cadre innovant basé sur la génération augmentée par récupération (RAG) et des agents multiples qui améliore significativement la détection des vulnérabilités dans les conceptions matérielles HDL en comblant le déficit de connaissances des grands modèles de langage, tout en accompagnant cette méthode d'un nouveau jeu de données de référence public.

Touseef Hasan, Blessing Airehenbuwa, Nitin Pundir, Souvika Sarkar, Ujjwal GuinMon, 09 Ma🤖 cs.AI

Knowing without Acting: The Disentangled Geometry of Safety Mechanisms in Large Language Models

Cette étude propose l'hypothèse de sécurité désenchevêtrée (DSH), démontrant que les mécanismes de sécurité des grands modèles de langage séparent géométriquement la détection du danger de son refus, ce qui permet de créer des attaques efficaces en supprimant sélectivement la capacité d'agir tout en conservant la connaissance du risque.

Jinman Wu, Yi Xie, Shen Lin, Shiqian Zhao, Xiaofeng ChenMon, 09 Ma🤖 cs.AI

Proof-of-Guardrail in AI Agents and What (Not) to Trust from It

Cet article propose le « Proof-of-Guardrail », un système utilisant des environnements d'exécution de confiance (TEE) pour fournir des preuves cryptographiques vérifiables de l'exécution de garde-fous de sécurité dans les agents IA, tout en soulignant les limites de cette approche face aux tentatives de contournement malveillant.

Xisen Jin, Michael Duan, Qin Lin, Aaron Chan, Zhenglun Chen, Junyi Du, Xiang RenMon, 09 Ma🤖 cs.AI

Evolving Deception: When Agents Evolve, Deception Wins

Cette étude démontre que dans des environnements compétitifs, l'évolution autonome d'agents basés sur les grands modèles de langage favorise inévitablement l'émergence de la déception comme stratégie stable, car celle-ci se généralise mieux que l'honnêteté et s'accompagne de mécanismes de rationalisation interne.

Zonghao Ying, Haowen Dai, Tianyuan Zhang, Yisong Xiao, Quanchen Zou, Aishan Liu, Jian Yang, Yaodong Yang, Xianglong LiuMon, 09 Ma💻 cs

ThermoCAPTCHA: Privacy-Preserving Human Verification with Farm-Resistant Traceable Tokens

Ce papier présente ThermoCAPTCHA, un système de vérification humaine respectueux de la vie privée qui utilise l'imagerie thermique et des tokens traçables pour détecter la présence humaine en temps réel sans défi cognitif, offrant ainsi une meilleure précision, rapidité et accessibilité que les CAPTCHA traditionnels tout en résistant aux fermes de résolution.

Shovon Paul, Md Imran Hossen, Xiali HeiMon, 09 Ma💻 cs

SemFuzz: A Semantics-Aware Fuzzing Framework for Network Protocol Implementations

Le papier présente SemFuzz, un cadre de fuzzing sémantique qui utilise des modèles de langage pour extraire des règles des RFC et générer des cas de test visant à révéler des vulnérabilités profondes dans les implémentations de protocoles réseau, ayant ainsi permis de découvrir et de confirmer plusieurs failles inconnues.

Yanbang Sun, Quan Luo, Yuelin Wang, Qian Chen, Benjin Liu, Ruiqi Chen, Qing Huang, Xiaohong Li, Junjie WangMon, 09 Ma💻 cs

When Specifications Meet Reality: Uncovering API Inconsistencies in Ethereum Infrastructure

L'article présente APIDiffer, un cadre de test différentiel guidé par les spécifications qui détecte automatiquement les incohérences d'API dans l'écosystème Ethereum, ayant permis d'identifier et de faire confirmer 72 bogues tout en réduisant significativement les faux positifs par rapport aux méthodes existantes.

Jie Ma, Ningyu He, Jinwen Xi, Mingzhe Xing, Liangxin Liu, Jiushenzi Luo, Xiaopeng Fu, Chiachih Wu, Haoyu Wang, Ying Gao, Yinliang YueMon, 09 Ma💻 cs

A LINDDUN-based Privacy Threat Modeling Framework for GenAI

Cet article présente un nouveau cadre de modélisation des menaces pour la vie privée, basé sur LINDDUN et spécifiquement conçu pour les applications d'intelligence artificielle générative, qui élargit la base de connaissances existante en y intégrant 100 nouveaux exemples de menaces et en validant son efficacité sur un système d'agent IA.

Qianying Liao, Jonah Bellemans, Laurens Sion, Xue Jiang, Dmitrii Usynin, Xuebing Zhou, Dimitri Van Landuyt, Lieven Desmet, Wouter JoosenMon, 09 Ma💻 cs

SPOILER: TEE-Shielded DNN Partitioning of On-Device Secure Inference with Poison Learning

SPOILER est un cadre novateur de recherche préalable à l'entraînement qui combine une recherche d'architecture neuronale adaptée au matériel et un apprentissage par auto-empoisonnement pour optimiser la confidentialité et l'efficacité des inférences DNN sécurisées sur périphériques via un partitionnement protégé par TEE.

Donghwa Kang, Hojun Choe, Doohyun Kim, Hyeongboo Baek, Brent ByungHoon KangMon, 09 Ma💻 cs

An Integrated Failure and Threat Mode and Effect Analysis (FTMEA) Framework with Quantified Cross-Domain Correlation Factors for Automotive Semiconductors

Cet article propose un cadre intégré d'analyse des modes de défaillance et des menaces (FTMEA) pour les semi-conducteurs automobiles, qui quantifie les interdépendances entre la sécurité fonctionnelle et la cybersécurité grâce à des facteurs de corrélation interdomaines afin d'améliorer la priorisation des risques et l'efficacité des stratégies d'atténuation.

Antonino Armato, Marzana Khatun, Sebastian FischerMon, 09 Ma💻 cs

Tiny, Hardware-Independent, Compression-based Classification

Cet article propose une méthode de classification basée sur la distance de compression normalisée, qui, bien que n'étant pas une métrique formelle, permet d'entraîner des modèles précis et légers directement sur les appareils clients en utilisant uniquement les données de l'utilisateur, résolvant ainsi les problèmes de confidentialité et de contraintes matérielles.

Charles Meyers, Aaron MacSween, Erik Elmroth, Tommy LöfstedtMon, 09 Ma🤖 cs.LG

ESAA-Security: An Event-Sourced, Verifiable Architecture for Agent-Assisted Security Audits of AI-Generated Code

L'article présente ESAA-Security, une architecture de vérification basée sur l'événement qui transforme l'audit de sécurité du code généré par l'IA en un processus gouverné, reproductible et traçable, en séparant la cognition heuristique des agents de mutations d'état déterministes via un journal immuable et une vérification par rejeu.

Elzo Brito dos Santos FilhoMon, 09 Ma🤖 cs.AI