NOTAI.AI: Explainable Detection of Machine-Generated Text via Curvature and Feature Attribution

NOTAI.AI ist ein erklärbares Framework zur Erkennung maschinell generierter Texte, das curvature-basierte Signale und stilometrische Merkmale in einem XGBoost-Modell kombiniert und durch SHAP-Analysen sowie eine LLM-gestützte Schicht verständliche, natürliche Begründungen für die Klassifizierung liefert.

Oleksandr Marchenko Breneur, Adelaide Danilov, Aria Nourbakhsh, Salima Lamsiyah2026-03-09💬 cs.CL

FreeTxt-Vi: A Benchmarked Vietnamese-English Toolkit for Segmentation, Sentiment, and Summarisation

FreeTxt-Vi ist ein kostenloses, webbasiertes Toolkit, das eine integrierte Pipeline für die Segmentierung, Sentiment-Analyse und Zusammenfassung von vietnamesisch-englischen Texten bietet und dabei durch eine hybride Segmentierungsstrategie sowie feinabgestimmte Transformer-Modelle eine wettbewerbsfähige Leistung erzielt, um die textbasierte Forschung in unterrepräsentierten Sprachen zu erleichtern.

Hung Nguyen Huy, Mo El-Haj, Dawn Knight, Paul Rayson2026-03-09💬 cs.CL

Towards Robust Retrieval-Augmented Generation Based on Knowledge Graph: A Comparative Analysis

Diese Arbeit vergleicht die Robustheit von Retrieval-Augmented Generation (RAG) basierend auf einem Wissensgraphen (GraphRAG) mit einem Standard-RAG-Baseline unter Verwendung des RGB-Benchmarks und zeigt, dass angepasste GraphRAG-Methoden die Zuverlässigkeit von LLMs in Szenarien wie Rauschresistenz und negativer Ablehnung verbessern.

Hazem Amamou, Stéphane Gagnon, Alan Davoust, Anderson R. Avila2026-03-09💬 cs.CL

CodeScout: Contextual Problem Statement Enhancement for Software Agents

Das Paper stellt CodeScout vor, einen Ansatz zur kontextuellen Verfeinerung von Problemstellungen durch eine leichte Vorab-Analyse des Codebases, der die Erfolgsrate von Software-Agenten auf der SWEBench-Verified-Benchmark um 20 % steigert, indem er unpräzise Anfragen in umfassende, handlungsorientierte Aufgaben umwandelt.

Manan Suri, Xiangci Li, Mehdi Shojaie, Songyang Han, Chao-Chun Hsu, Shweta Garg, Aniket Anand Deshmukh, Varun Kumar2026-03-09💬 cs.CL

PVminerLLM: Structured Extraction of Patient Voice from Patient-Generated Text using Large Language Models

Die Studie stellt PVminerLLM vor, einen speziell feinabgestimmten Large Language Model, der Patiententexte zuverlässig strukturiert analysiert und dabei Prompt-basierte Baseline-Modelle in der Extraktion von sozialen und erfahrungsbasierten Gesundheitsfaktoren deutlich übertrifft.

Samah Fodeh, Linhai Ma, Ganesh Puthiaraju, Srivani Talakokkul, Afshan Khan, Ashley Hagaman, Sarah Lowe, Aimee Roundtree2026-03-09🤖 cs.AI

Proof-of-Guardrail in AI Agents and What (Not) to Trust from It

Die Arbeit stellt „Proof-of-Guardrail" vor, ein System, das mithilfe von Trusted Execution Environments (TEEs) kryptografische Nachweise für die Ausführung von Sicherheitsguardrails durch KI-Agenten ermöglicht, um das Vertrauen in die Sicherheit zu stärken, gleichzeitig aber vor Täuschungsversuchen durch böswillige Entwickler warnt.

Xisen Jin, Michael Duan, Qin Lin, Aaron Chan, Zhenglun Chen, Junyi Du, Xiang Ren2026-03-09🤖 cs.AI

RouteGoT: Node-Adaptive Routing for Cost-Efficient Graph of Thoughts Reasoning

Das Paper stellt RouteGoT vor, ein budgetkontrollierbares, knotenadaptives Routing-Framework für Graph-of-Thoughts-Reasoning, das durch die dynamische Zuweisung von leistungsstarken Modellen für Planungs- und Synthesetasks sowie leichtgewichtiger Modelle für einfachere Teilaufgaben die Token-Nutzung um durchschnittlich 79,1 % reduziert und gleichzeitig die Genauigkeit im Vergleich zu bestehenden Methoden wie AGoT verbessert.

Yuhang Liu, Ruijie Wang, Yunlong Chu, Bing Hao, Yumeng Lin, Shengzhong Liu, Minglai Shao2026-03-09💬 cs.CL

Test-Time Adaptation via Many-Shot Prompting: Benefits, Limits, and Pitfalls

Diese Studie untersucht die Wirksamkeit und Grenzen des Many-Shot-Promptings als Testzeit-Anpassungsmethode für Large Language Models und zeigt, dass sie zwar bei strukturierten Aufgaben mit hohem Informationsgewinn effektiv ist, jedoch bei offenen Generierungsaufgaben stark von der Auswahlstrategie abhängt und oft nur begrenzte Vorteile bietet.

Shubhangi Upasani, Chen Wu, Jay Rainton, Bo Li, Changran Hu, Qizheng Zhang, Urmish Thakker2026-03-09🤖 cs.LG

ReflexiCoder: Teaching Large Language Models to Self-Reflect on Generated Code and Self-Correct It via Reinforcement Learning

Die Arbeit stellt ReflexiCoder vor, ein Reinforcement-Learning-Framework, das Large Language Models befähigt, Code autonom durch internalisierte Selbstreflexion und Selbstkorrektur zu verbessern, wodurch sie bei algorithmischen Aufgaben neue State-of-the-Art-Ergebnisse erzielen und dabei deutlich token-effizienter sind als herkömmliche Ansätze.

Juyong Jiang, Jiasi Shen, Sunghun Kim, Kang Min Yoo, Jeonghoon Kim, Sungju Kim2026-03-09🤖 cs.LG