Automating Detection and Root-Cause Analysis of Flaky Tests in Quantum Software

Diese Arbeit stellt eine automatisierte Pipeline vor, die mithilfe von Large Language Models (LLMs) flaky Tests in Quantensoftware erkennt und deren Ursachen analysiert, wodurch ein bestehender Datensatz um 54 % erweitert wird und Modelle wie Google Gemini eine hohe Genauigkeit bei der Klassifizierung und Ursachenidentifikation erreichen.

Janakan Sivaloganathan, Ainaz Jamshidi, Andriy Miranskyy, Lei ZhangWed, 11 Ma🤖 cs.AI

AgenticCyOps: Securing Multi-Agentic AI Integration in Enterprise Cyber Operations

Die Arbeit stellt AgenticCyOps vor, ein Sicherheitsframework für die Integration multi-agentischer KI-Systeme in Unternehmen, das durch die Identifizierung von Werkzeug-Orchestrierung und Speicher-Management als primäre Angriffsflächen sowie die Einführung von fünf defensiven Prinzipien und einer mehrschichtigen Verteidigungsarchitektur die Angriffsfläche im Vergleich zu herkömmlichen Systemen um mindestens 72 % reduziert.

Shaswata Mitra, Raj Patel, Sudip Mittal, Md Rayhanur Rahman, Shahram RahimiWed, 11 Ma💻 cs

ToolRosetta: Bridging Open-Source Repositories and Large Language Model Agents through Automated Tool Standardization

Das Paper stellt ToolRosetta vor, ein Framework, das Open-Source-Repositories automatisch in standardisierte, sicherheitsgeprüfte MCP-Tools für LLM-Agenten übersetzt, um die Skalierbarkeit und Leistung bei der Aufgabenerfüllung ohne manuelle Eingriffe zu verbessern.

Shimin Di, Xujie Yuan, Hanghui Guo, Chaoqian Ouyang, Zhangze Chen, Ling Yue, Libin Zheng, Jia Zhu, Shaowu Pan, Jian Yin, Min-Ling Zhang, Yong RuiWed, 11 Ma💻 cs

Experience Report on the Adaptable Integration of Requirements Engineering Courses into Curricula for Professionals

Dieser Erfahrungsbericht beschreibt die systematische Integration von Anforderungen an die Requirements-Engineering-Lehrinhalte in dynamische Software-Engineering-Lehrpläne für Berufstätige und leitet dabei grundlegende Prinzipien sowie einen Ansatz zur curricularen Abbildung ab.

Oleksandr Kosenkov, Konstantin Blaschke, Tony Gorschek, Michael Unterkalmsteiner, Oleksandr Adamov, Davide FucciWed, 11 Ma💻 cs

An Empirical Study of Interaction Smells in Multi-Turn Human-LLM Collaborative Code Generation

Diese Studie führt eine empirische Untersuchung von „Interaktionsgerüchen" in der mehrstufigen Mensch-LLM-Codegenerierung durch, stellt eine erste Taxonomie vor, analysiert deren Verteilung in verschiedenen Modellen und schlägt das Multi-Agenten-Framework InCE zur effektiven Minderung dieser Qualitätsprobleme vor.

Binquan Zhang, Li Zhang, Lin Shi, Song Wang, Yuwei Qian, Linhui Zhao, Fang Liu, An Fu, Yida YeWed, 11 Ma💻 cs

Towards a Neural Debugger for Python

Die Arbeit stellt „Neural Debuggers" vor, eine neue Klasse von Sprachmodellen, die traditionelle Debugger-Funktionen wie das Setzen von Haltepunkten und das schrittweise Durchlaufen von Code nachahmen, um sowohl die Vorwärts- als auch die Rückwärtsausführung von Python-Programmen zuverlässig zu modellieren und so die Grundlage für fortschrittlichere Agenten-basierte Codiersysteme zu legen.

Maximilian Beck, Jonas Gehring, Jannik Kossen, Gabriel SynnaeveWed, 11 Ma🤖 cs.AI

Security and Quality in LLM-Generated Code: A Multi-Language, Multi-Model Analysis

Diese Studie analysiert die Sicherheit und Qualität von Code, der von großen Sprachmodellen (LLMs) in verschiedenen Programmiersprachen generiert wurde, und stellt fest, dass die Modelle oft veraltete Methoden verwenden und moderne Sicherheitsfeatures nicht nutzen, was eine Weiterentwicklung zur Integration aktueller Best Practices erforderlich macht.

Mohammed Kharma, Soohyeon Choi, Mohammed AlKhanafseh, David MohaisenTue, 10 Ma🤖 cs.LG

Engineering Systems for Data Analysis Using Interactive Structured Inductive Programming

Das Paper stellt iProg vor, ein Werkzeug für interaktives strukturiertes induktives Programmieren, das durch eine zweistufige Kollaboration zwischen Mensch und KI (Zerlegung in Datenflussdiagramme und Codegenerierung) unter Nutzung eines Intelligibilitätsprotokolls wissenschaftliche Datenanalysesysteme schneller, qualitativ hochwertiger und zuverlässiger entwickelt als herkömmliche Low-Code- oder No-Code-Ansätze.

Shraddha Surana, Ashwin Srinivasan, Michael BainTue, 10 Ma💻 cs