From Variance to Invariance: Qualitative Content Analysis for Narrative Graph Annotation

Diese Arbeit stellt ein qualitatives Inhaltsanalyse-Framework zur Annotation von Inflationsnarrativen als gerichtete azyklische Graphen vor und zeigt durch eine experimentelle Auswertung, dass lokal eingeschränkte Repräsentationen die Annotationsschwankungen verringern, während überlappungsbasierte Metriken die Zuverlässigkeit überschätzen.

Junbo Huang, Max Weinig, Ulrich Fritsche + 1 more2026-03-05🤖 cs.AI

Detecting AI-Generated Essays in Writing Assessment: Responsible Use and Generalizability Across LLMs

Dieses Kapitel bietet einen Überblick über Detektoren für KI-generierte Aufsätze und ihre verantwortungsvolle Nutzung, während es zudem empirisch untersucht, inwiefern Modelle, die auf Texten eines bestimmten Large Language Models trainiert wurden, auf Aufsätze anderer Modelle verallgemeinerbar sind, um praktische Leitlinien für deren Weiterentwicklung zu liefern.

Jiangang Hao2026-03-05💬 cs.CL

Learning to Generate and Extract: A Multi-Agent Collaboration Framework For Zero-shot Document-level Event Arguments Extraction

Diese Arbeit stellt ein Multi-Agenten-Framework vor, das durch die Nachahmung des menschlichen „Vorschlagen-Bewerten-Überarbeiten"-Zyklus und den Einsatz von Reinforcement Learning die Qualität synthetischer Daten sowie die Leistung bei der zero-shot Extraktion von Ereignisargumenten auf Dokumentenebene verbessert.

Guangjun Zhang, Hu Zhang, Yazhou Han + 4 more2026-03-05🤖 cs.AI

From Conflict to Consensus: Boosting Medical Reasoning via Multi-Round Agentic RAG

Die Arbeit stellt MA-RAG vor, ein Multi-Round-Agentic-RAG-Framework, das durch die iterative Umwandlung von semantischen Konflikten in gezielte Suchanfragen und die Optimierung von Reasoning-Verläufen die medizinische Schlussfolgerung verbessert und auf sieben Benchmarks eine durchschnittliche Genauigkeitssteigerung von 6,8 Prozentpunkten gegenüber dem Basismodell erzielt.

Wenhao Wu, Zhentao Tang, Yafu Li + 5 more2026-03-05🤖 cs.AI

How LLMs Cite and Why It Matters: A Cross-Model Audit of Reference Fabrication in AI-Assisted Academic Writing and Methods to Detect Phantom Citations

Diese Studie auditiert die Zitationshalluzinationen von zehn kommerziellen LLMs über verschiedene Domänen hinweg, quantifiziert deren erhebliche Variation, identifiziert promptinduzierte Ursachen sowie effektive Detektionsfilter und stellt einen leichten Klassifikator vor, der gefälschte Zitate ohne externe Datenbankabfrage zuverlässig erkennt.

MZ Naser2026-03-05💬 cs.CL

Benchmarking Legal RAG: The Promise and Limits of AI Statutory Surveys

Diese Studie bewertet verschiedene KI-Tools für die juristische Recherche mittels des LaborBench-Benchmarks und zeigt, dass das maßgeschneiderte Tool STARA mit 83 % Genauigkeit deutlich besser abschneidet als kommerzielle Plattformen, wobei eine detaillierte Fehleranalyse zudem erhebliche Lücken in den ursprünglichen menschlichen Referenzdaten aufdeckt, die die tatsächliche Genauigkeit von STARA auf 92 % erhöhen.

Mohamed Afane, Emaan Hariri, Derek Ouyang + 1 more2026-03-05💬 cs.CL

Developing an AI Assistant for Knowledge Management and Workforce Training in State DOTs

Diese Arbeit schlägt ein Multi-Agenten-RAG-Framework vor, das große Sprachmodelle, spezialisierte Agenten zur Qualitätskontrolle und visuelle Modelle zur Textumwandlung von Diagrammen integriert, um das Wissensmanagement und die Personalentwicklung in staatlichen Straßenbauämtern durch kontextbewusste, evidenzbasierte Antworten zu verbessern.

Divija Amaram, Lu Gao, Gowtham Reddy Gudla + 1 more2026-03-05🤖 cs.AI