ReflexiCoder: Teaching Large Language Models to Self-Reflect on Generated Code and Self-Correct It via Reinforcement Learning

Die Arbeit stellt ReflexiCoder vor, ein Reinforcement-Learning-Framework, das Large Language Models befähigt, Code autonom durch internalisierte Selbstreflexion und Selbstkorrektur zu verbessern, wodurch sie bei algorithmischen Aufgaben neue State-of-the-Art-Ergebnisse erzielen und dabei deutlich token-effizienter sind als herkömmliche Ansätze.

Juyong Jiang, Jiasi Shen, Sunghun Kim, Kang Min Yoo, Jeonghoon Kim, Sungju Kim2026-03-09🤖 cs.LG

InfoGatherer: Principled Information Seeking via Evidence Retrieval and Strategic Questioning

Das Paper stellt InfoGatherer vor, ein Framework, das durch die Kombination von Dokumentenrecherche und gezielten Nachfragen sowie die Nutzung der Dempster-Shafer-Theorie zur Modellierung von Unsicherheit, zuverlässigere und interpretierbare Entscheidungen in hochriskanten Domänen wie Medizin und Recht ermöglicht.

Maksym Taranukhin, Shuyue Stella Li, Evangelos Milios, Geoff Pleiss, Yulia Tsvetkov, Vered Shwartz2026-03-09💬 cs.CL

Learning Next Action Predictors from Human-Computer Interaction

Die Arbeit stellt LongNAP vor, ein neues Modell zur Vorhersage des nächsten Nutzerhandels, das durch die Analyse multimodaler Interaktionsdaten und die Kombination von parametrischem Lernen mit In-Context-Learning aus langen Historien signifikant bessere Ergebnisse erzielt als bestehende Methoden.

Omar Shaikh, Valentin Teutschbein, Kanishk Gandhi, Yikun Chi, Nick Haber, Thomas Robinson, Nilam Ram, Byron Reeves, Sherry Yang, Michael S. Bernstein, Diyi Yang2026-03-09💬 cs.CL

Implicit Style Conditioning: A Structured Style-Rewrite Framework for Low-Resource Character Modeling

Die Arbeit stellt ein strukturiertes Stil-Umschreibungs-Framework vor, das durch explizite Entzerrung lexikalischer, syntaktischer und pragmatischer Merkmale sowie implizites Stil-Conditioning mittels CoT-Distillation es kleinen Sprachmodellen ermöglicht, auch bei geringen Datenmengen konsistente und dateneffiziente Charakterrollen zu generieren, die größere Baseline-Modelle übertreffen.

Chanhui Zhu2026-03-09🤖 cs.LG

Who We Are, Where We Are: Mental Health at the Intersection of Person, Situation, and Large Language Models

Diese Studie entwickelt interpretierbare Modelle, die psychologische Theorien über die Interaktion von Person und Situation mit Sprachdaten kombinieren, um das dynamische Wohlbefinden in sozialen Medien präziser und nachvollziehbarer zu erfassen als rein embedding-basierte Ansätze.

Nikita Soni, August Håkan Nilsson, Syeda Mahwish, Vasudha Varadarajan, H. Andrew Schwartz, Ryan L. Boyd2026-03-09🤖 cs.AI

MASFactory: A Graph-centric Framework for Orchestrating LLM-Based Multi-Agent Systems with Vibe Graphing

Die Arbeit stellt MASFactory vor, ein graphenzentriertes Framework zur Orchestrierung von LLM-basierten Multi-Agenten-Systemen, das durch die neuartige „Vibe Graphing"-Methode die Umwandlung natürlicher Sprachabsichten in ausführbare Workflow-Graphen ermöglicht und dabei Wiederverwendbarkeit sowie einfache Integration externer Kontextquellen verbessert.

Yang Liu, Jinxuan Cai, Yishen Li, Qi Meng, Zedi Liu, Xin Li, Chen Qian, Chuan Shi, Cheng Yang2026-03-09🤖 cs.AI

Evaluating Austrian A-Level German Essays with Large Language Models for Automated Essay Scoring

Die Studie zeigt, dass aktuelle Large Language Models zwar in der Lage sind, österreichische A-Level-German-Aufsätze anhand von Bewertungsrastern zu analysieren, jedoch mit einer Übereinstimmungsrate von maximal 40,6 % bei Teilaspekten und nur 32,8 % bei der Endnote noch nicht die notwendige Genauigkeit für den realen Einsatz in der automatisierten Benotung erreichen.

Jonas Kubesch, Lena Huber, Clemens Havas2026-03-09🤖 cs.AI

Experiences Build Characters: The Linguistic Origins and Functional Impact of LLM Personality

Diese Studie zeigt, dass durch unsupervisedes Weiter-Training mit domänenspezifischen Texten simulierte unterschiedliche Erfahrungen die Persönlichkeit von Large Language Models prägen und dabei eine „Unterdrückungsvorteil"-Hypothese aufdecken, wonach reduzierte soziale Merkmale die komplexe reasoning-Leistung steigern, was einen Weg für gezieltes „Personality Engineering" eröffnet.

Xi Wang, Mengdie Zhuang, Jiqun Liu2026-03-09🤖 cs.AI