SecureRAG-RTL: A Retrieval-Augmented, Multi-Agent, Zero-Shot LLM-Driven Framework for Hardware Vulnerability Detection

Die Arbeit stellt SecureRAG-RTL vor, ein auf Retrieval-Augmented Generation basierendes Multi-Agent-Framework, das die Genauigkeit der Erkennung von Hardware-Schwachstellen in HDL-Entwürfen durch den Abgleich mit domänenspezifischem Wissen um durchschnittlich 30 % verbessert und dabei einen neuen Benchmark-Datensatz bereitstellt.

Touseef Hasan, Blessing Airehenbuwa, Nitin Pundir, Souvika Sarkar, Ujjwal Guin2026-03-09🤖 cs.AI

Longitudinal Lesion Inpainting in Brain MRI via 3D Region Aware Diffusion

Die Studie stellt ein neuartiges, auf Denoising Diffusion Probabilistic Models basierendes Framework vor, das durch die Erweiterung von Region-Aware Diffusion und die Nutzung longitudinaler Kontextinformationen effizient und präzise Läsionen in 3D-MRT-Aufnahmen des Gehirns rekonstruiert, wodurch die Bildqualität verbessert und die Verarbeitungszeit im Vergleich zu bestehenden Methoden um das Zehnfache reduziert wird.

Zahra Karimaghaloo, Dumitru Fetco, Haz-Edine Assemlal, Hassan Rivaz, Douglas L. Arnold2026-03-09🤖 cs.AI

Reasoning Models Struggle to Control their Chains of Thought

Die Studie stellt fest, dass aktuelle Reasoning-Modelle ihre Chain-of-Thought-Ausgaben nur sehr schwer kontrollieren können, was die Überwachbarkeit von Denkprozessen derzeit als sicherer Schutzmechanismus gegen Missbrauch erscheinen lässt, obwohl die zugrundeliegenden Ursachen noch nicht vollständig verstanden sind.

Chen Yueh-Han, Robert McCarthy, Bruce W. Lee, He He, Ian Kivlichan, Bowen Baker, Micah Carroll, Tomek Korbak2026-03-09🤖 cs.AI

The Rise of AI in Weather and Climate Information and its Impact on Global Inequality

Das Papier warnt davor, dass die rasche Einführung von KI in der Klimaforschung die globale Ungleichheit zwischen Nord und Süd verschärfen könnte, und fordert einen Paradigmenwechsel hin zu einer datenzentrierten Entwicklung, einer digitalen öffentlichen Klimainfrastruktur und einer gemeinsamen Wissensproduktion, um diese Disparitäten zu überwinden.

Amirpasha Mozaffari, Amanda Duarte, Lina Teckentrup, Stefano Materia, Gina E. C. Charnley, Lluis Palma, Eulalia Baulenas Serra, Dragana Bojovic, Paula Checchia, Aude Carreric, Francisco Doblas-Reyes2026-03-09🤖 cs.AI

Knowing without Acting: The Disentangled Geometry of Safety Mechanisms in Large Language Models

Diese Arbeit stellt die Disentangled Safety Hypothesis (DSH) vor, die Sicherheitsmechanismen in großen Sprachmodellen in zwei entkoppelte Unterräume – Erkennung und Ausführung – zerlegt, um durch gezielte Angriffe wie den „Refusal Erasure Attack" (REA) ein „Wissen ohne Handeln" zu erzeugen und so die Anfälligkeit aktueller Sicherheitsalignments aufzuzeigen.

Jinman Wu, Yi Xie, Shen Lin, Shiqian Zhao, Xiaofeng Chen2026-03-09🤖 cs.AI

PVminerLLM: Structured Extraction of Patient Voice from Patient-Generated Text using Large Language Models

Die Studie stellt PVminerLLM vor, einen speziell feinabgestimmten Large Language Model, der Patiententexte zuverlässig strukturiert analysiert und dabei Prompt-basierte Baseline-Modelle in der Extraktion von sozialen und erfahrungsbasierten Gesundheitsfaktoren deutlich übertrifft.

Samah Fodeh, Linhai Ma, Ganesh Puthiaraju, Srivani Talakokkul, Afshan Khan, Ashley Hagaman, Sarah Lowe, Aimee Roundtree2026-03-09🤖 cs.AI

Balancing Domestic and Global Perspectives: Evaluating Dual-Calibration and LLM-Generated Nudges for Diverse News Recommendation

Diese Studie zeigt, dass ein personalisierter Diversitäts-Nudge-Framework mit einem dualen Kalibrierungsalgorithmus die Vielfalt des Nachrichtenkonsums (inländisch und global) bei US-Nutzern erfolgreich steigern kann, wobei die Relevanz zu vorher gelesenen Artikeln ein stärkerer Klick-Prädiktor ist als generische Themen und langfristige Exposition zu einer Präferenz für ausgewogene Nachrichten führt.

Ruixuan Sun, Matthew Zent, Minzhu Zhao, Thanmayee Boyapati, Xinyi Li, Joseph A. Konstan2026-03-09🤖 cs.AI

Proof-of-Guardrail in AI Agents and What (Not) to Trust from It

Die Arbeit stellt „Proof-of-Guardrail" vor, ein System, das mithilfe von Trusted Execution Environments (TEEs) kryptografische Nachweise für die Ausführung von Sicherheitsguardrails durch KI-Agenten ermöglicht, um das Vertrauen in die Sicherheit zu stärken, gleichzeitig aber vor Täuschungsversuchen durch böswillige Entwickler warnt.

Xisen Jin, Michael Duan, Qin Lin, Aaron Chan, Zhenglun Chen, Junyi Du, Xiang Ren2026-03-09🤖 cs.AI

StreamWise: Serving Multi-Modal Generation in Real-Time at Scale

Der Paper stellt StreamWise vor, ein adaptives, modulares Serversystem, das durch dynamisches Management von Qualität, Parallelisierung und ressourcenbewusster Planung auf heterogener Hardware effiziente Echtzeit-Multi-Modal-Generierung (z. B. für Podcast-Videos) unter strengen Latenz- und Kosteneinschränkungen ermöglicht.

Haoran Qiu, Gohar Irfan Chaudhry, Chaojie Zhang, Íñigo Goiri, Esha Choukse, Rodrigo Fonseca, Ricardo Bianchini2026-03-09🤖 cs.AI

Lexara: A User-Centered Toolkit for Evaluating Large Language Models for Conversational Visual Analytics

Das Paper stellt Lexara vor, ein benutzerzentriertes Toolkit zur Evaluierung von Large Language Models für konversationelle visuelle Analysen, das auf Interviews mit Entwicklern und Nutzern basiert und realistische Testfälle sowie interpretierbare Metriken für die Bewertung von Visualisierungs- und Sprachqualität ohne Programmierkenntnisse bereitstellt.

Srishti Palani, Vidya Setlur2026-03-09🤖 cs.AI