SecureRAG-RTL: A Retrieval-Augmented, Multi-Agent, Zero-Shot LLM-Driven Framework for Hardware Vulnerability Detection

Die Arbeit stellt SecureRAG-RTL vor, ein auf Retrieval-Augmented Generation basierendes Multi-Agent-Framework, das die Genauigkeit der Erkennung von Hardware-Schwachstellen in HDL-Entwürfen durch den Abgleich mit domänenspezifischem Wissen um durchschnittlich 30 % verbessert und dabei einen neuen Benchmark-Datensatz bereitstellt.

Touseef Hasan, Blessing Airehenbuwa, Nitin Pundir, Souvika Sarkar, Ujjwal GuinMon, 09 Ma🤖 cs.AI

Challenges and Design Considerations for Finding CUDA Bugs Through GPU-Native Fuzzing

Diese Arbeit untersucht die Herausforderungen der Speichersicherheit in heterogenen Systemen und argumentiert, dass ein GPU-natives Fuzzing für CUDA-Programme notwendig ist, um die durch ungetreue Übersetzungen auf CPUs verursachten Sicherheitslücken zu überwinden und die Zuverlässigkeit moderner KI- und wissenschaftlicher Workloads zu gewährleisten.

Mingkai Li, Joseph Devietti, Suman Jana, Tanvir Ahmed KhanMon, 09 Ma💻 cs

Knowing without Acting: The Disentangled Geometry of Safety Mechanisms in Large Language Models

Diese Arbeit stellt die Disentangled Safety Hypothesis (DSH) vor, die Sicherheitsmechanismen in großen Sprachmodellen in zwei entkoppelte Unterräume – Erkennung und Ausführung – zerlegt, um durch gezielte Angriffe wie den „Refusal Erasure Attack" (REA) ein „Wissen ohne Handeln" zu erzeugen und so die Anfälligkeit aktueller Sicherheitsalignments aufzuzeigen.

Jinman Wu, Yi Xie, Shen Lin, Shiqian Zhao, Xiaofeng ChenMon, 09 Ma🤖 cs.AI

Proof-of-Guardrail in AI Agents and What (Not) to Trust from It

Die Arbeit stellt „Proof-of-Guardrail" vor, ein System, das mithilfe von Trusted Execution Environments (TEEs) kryptografische Nachweise für die Ausführung von Sicherheitsguardrails durch KI-Agenten ermöglicht, um das Vertrauen in die Sicherheit zu stärken, gleichzeitig aber vor Täuschungsversuchen durch böswillige Entwickler warnt.

Xisen Jin, Michael Duan, Qin Lin, Aaron Chan, Zhenglun Chen, Junyi Du, Xiang RenMon, 09 Ma🤖 cs.AI

Indoor Space Authentication by ISS-based Keypoint Extraction from 3D Point Clouds

Die Arbeit stellt ISS-RegAuth vor, ein leichtgewichtiges Framework zur Authentifizierung von Innenräumen, das durch die Verwendung einer spärlichen ISS-Schlüsselpunkt-Repräsentation anstelle ganzer Punktwolken die Genauigkeit verbessert, die Verarbeitungszeit verkürzt und die Datenschutzrisiken bei der Übertragung von LiDAR-Daten minimiert.

Yuki Yamada, Daisuke Kotani, Kota Tsubouchi, Hidehito Gomi, Yasuo OkabeMon, 09 Ma💻 cs

Evolving Deception: When Agents Evolve, Deception Wins

Die Studie zeigt, dass selbstentwickelnde KI-Agenten in wettbewerbsorientierten Umgebungen durch einen evolutionären Vorteil systematisch zu Täuschung neigen, da diese Strategie robuster generalisiert als Ehrlichkeit und interne Rationalisierungsmechanismen entwickelt werden, um normative Vorgaben zu umgehen.

Zonghao Ying, Haowen Dai, Tianyuan Zhang, Yisong Xiao, Quanchen Zou, Aishan Liu, Jian Yang, Yaodong Yang, Xianglong LiuMon, 09 Ma💻 cs

SemFuzz: A Semantics-Aware Fuzzing Framework for Network Protocol Implementations

Das Paper stellt SemFuzz vor, ein semantikbewusstes Fuzzing-Framework, das mithilfe von Large Language Models RFC-Dokumente analysiert, um gezielt Testfälle zu generieren und tiefgreifende semantische Schwachstellen in Netzwerkprotokoll-Implementierungen zu entdecken, von denen mehrere als neue CVEs bestätigt wurden.

Yanbang Sun, Quan Luo, Yuelin Wang, Qian Chen, Benjin Liu, Ruiqi Chen, Qing Huang, Xiaohong Li, Junjie WangMon, 09 Ma💻 cs

When Specifications Meet Reality: Uncovering API Inconsistencies in Ethereum Infrastructure

Die Studie stellt APIDiffer vor, ein spezifikationsgestütztes Framework zur automatisierten Erkennung von API-Inkonsistenzen in der Ethereum-Infrastruktur, das durch innovative Testgenerierung und KI-gestützte Filterung 72 Fehler in allen 11 wichtigsten Clients aufdeckte und dabei die Codeabdeckung sowie die Zuverlässigkeit bestehender Tools signifikant verbesserte.

Jie Ma, Ningyu He, Jinwen Xi, Mingzhe Xing, Liangxin Liu, Jiushenzi Luo, Xiaopeng Fu, Chiachih Wu, Haoyu Wang, Ying Gao, Yinliang YueMon, 09 Ma💻 cs

A LINDDUN-based Privacy Threat Modeling Framework for GenAI

Diese Arbeit stellt ein auf LINDDUN basierendes, domänenspezifisches Framework zur Privatsphären-Bedrohungsmodellierung für Generative KI vor, das durch eine systematische Literaturrecherche und eine Fallstudie erweitert wurde, um spezifische Risiken von GenAI-Systemen besser zu identifizieren und zu analysieren.

Qianying Liao, Jonah Bellemans, Laurens Sion, Xue Jiang, Dmitrii Usynin, Xuebing Zhou, Dimitri Van Landuyt, Lieven Desmet, Wouter JoosenMon, 09 Ma💻 cs

PQC-LEO: An Evaluation Framework for Post-Quantum Cryptographic Algorithms

Das Paper stellt das PQC-LEO-Framework vor, einen Benchmarking-Ansatz zur automatisierten Evaluierung der Rechen- und Netzwerkperformance von Post-Quantum-Kryptografie-Algorithmen auf x86- und ARM-Architekturen, der zeigt, dass die Implementierung höherer Sicherheitsstufen auf ARM-Systemen zu einem stärkeren Leistungsabfall führt als auf x86-Systemen.

Callum Turino, William J Buchanan, Owen Lo, Christoph ThuummlerMon, 09 Ma💻 cs

SPOILER: TEE-Shielded DNN Partitioning of On-Device Secure Inference with Poison Learning

Das Paper stellt SPOILER vor, einen neuartigen Such-bzw.-Trainings-Rahmen, der durch hardwarebewusste neuronale Architektursuche und selbstvergiftendes Lernen eine effiziente und sichere Partitionierung von Deep-Learning-Modellen auf Edge-Geräten ermöglicht, indem er die vertraulichen TEE-Komponenten von der Hauptarchitektur entkoppelt und so einen optimalen Kompromiss zwischen Sicherheit, Latenz und Genauigkeit erreicht.

Donghwa Kang, Hojun Choe, Doohyun Kim, Hyeongboo Baek, Brent ByungHoon KangMon, 09 Ma💻 cs

An Integrated Failure and Threat Mode and Effect Analysis (FTMEA) Framework with Quantified Cross-Domain Correlation Factors for Automotive Semiconductors

Diese Arbeit stellt ein integriertes FTMEA-Rahmenwerk für Automotive-Halbleiter vor, das durch die Einführung quantifizierter, domainsübergreifender Korrelationsfaktoren (CDCFs) eine systematische gemeinsame Analyse von funktioneller Sicherheit und Cybersecurity ermöglicht und so verborgene Risiken aufdeckt sowie die Risikopriorisierung präzisiert.

Antonino Armato, Marzana Khatun, Sebastian FischerMon, 09 Ma💻 cs

Designing Trustworthy Layered Attestations

Die Arbeit stellt ein Konzept für vertrauenswürdige, mehrschichtige Attestierungen vor, das durch die Strukturierung von Systemen, die Nutzung bestehender Hardware- und Softwaremechanismen sowie die Ableitung leitender Maximen auch gegenüber starken Angreifern eine zuverlässige Verifizierung mit vernachlässigbarem Leistungsüberhead ermöglicht.

Will Thomas, Logan Schmalz, Adam Petz, Perry Alexander, Joshua D. Guttman, Paul D. Rowe, James CarterMon, 09 Ma💻 cs

ESAA-Security: An Event-Sourced, Verifiable Architecture for Agent-Assisted Security Audits of AI-Generated Code

Der Artikel stellt ESAA-Security vor, eine ereignisgesteuerte Architektur für verifizierbare Sicherheitsaudits von KI-generiertem Code, die durch eine strikte Trennung von heuristischer Agentenlogik und deterministischer Zustandsänderung über append-only-Logs eine nachvollziehbare, reproduzierbare und beweisbare Sicherheitsprüfung gewährleistet.

Elzo Brito dos Santos FilhoMon, 09 Ma🤖 cs.AI