Adaptive Loops and Memory in Transformers: Think Harder or Know More?

Diese Arbeit stellt fest, dass Transformer-Modelle, die adaptive Schleifen für mathematisches Denken und Gated-Memory-Banken für das Abrufen von Wissen kombinieren, die Leistung von iso-FLOP-Baselines mit dreifach so vielen Schichten übertreffen, wobei eine spezialisierte Arbeitsteilung zwischen frühen und späteren Schichten beobachtet wird.

Markus Frey, Behzad Shomali, Ali Hamza Bashir, David Berghaus, Mehdi Ali2026-03-10💬 cs.CL

COACH meets QUORUM: A Framework and Pipeline for Aligning User, Expert and Developer Perspectives in LLM-generated Health Counselling

Die Studie stellt das Evaluierungsframework QUORUM und die LLM-basierte Pipeline COACH vor, um durch die Vereinigung von Entwickler-, Experten- und Nutzerperspektiven vertrauenswürdige und patientenzentrierte Gesundheitsberatungen für Krebspatienten zu entwickeln und dabei sowohl Übereinstimmungen als auch kritische Divergenzen in der Bewertung zu identifizieren.

Yee Man Ng, Bram van Dijk, Pieter Beynen, Otto Boekesteijn, Joris Jansen, Gerard van Oortmerssen, Max van Duijn, Marco Spruit2026-03-10💬 cs.CL

Revealing Behavioral Plasticity in Large Language Models: A Token-Conditional Perspective

Die Arbeit stellt das Token-Conditioned Reinforcement Learning (ToCoRL)-Framework vor, das die inhärente Verhaltensplastizität von Large Language Models durch token-bedingte Generierung und Verstärkungslernen nutzt, um präzise Verhaltensanpassungen ohne Kapazitätsverlust zu ermöglichen, wie etwa die Umwandlung von rechenintensiven Modellen in effiziente Faktenfragesteller.

Liyuan Mao, Le Yu, Jing Zhou, Chujie Zheng, Bowen Yu, Chang Gao, Shixuan Liu, An Yang, Weinan Zhang, JunYang Lin2026-03-10🤖 cs.LG

Sandpiper: Orchestrated AI-Annotation for Educational Discourse at Scale

Die Arbeit stellt Sandpiper vor, ein gemischt-initiatives System, das interaktive Dashboards mit agenten Großsprachmodellen kombiniert, um die skalierbare und methodisch rigorose Analyse von Bildungsdaten bei gleichzeitiger Wahrung des Datenschutzes und der Vermeidung von Halluzinationen zu ermöglichen.

Daryl Hedley, Doug Pietrzak, Jorge Dias, Ian Burden, Bakhtawar Ahtisham, Zhuqian Zhou, Kirk Vanacore, Josh Marland, Rachel Slama, Justin Reich, Kenneth Koedinger, René Kizilcec2026-03-10💬 cs.CL

A prospective clinical feasibility study of a conversational diagnostic AI in an ambulatory primary care clinic

Diese prospektive Machbarkeitsstudie zeigt, dass ein konversationsbasiertes KI-System (AMIE) in einer realen ambulanten Umgebung sicher eingesetzt werden kann, von Patienten und Ärzten positiv bewertet wird und in Bezug auf Diagnosequalität und Behandlungspläne mit Hausärzten vergleichbar ist, wenngleich diese bei der praktischen Umsetzbarkeit und Kosteneffizienz überlegen sind.

Peter Brodeur, Jacob M. Koshy, Anil Palepu, Khaled Saab, Ava Homiar, Roma Ruparel, Charles Wu, Ryutaro Tanno, Joseph Xu, Amy Wang, David Stutz, Hannah M. Ferrera, David Barrett, Lindsey Crowley, Jihyeon Lee, Spencer E. Rittner, Ellery Wulczyn, Selena K. Zhang, Elahe Vedadi, Christine G. Kohn, Kavita Kulkarni, Vinay Kadiyala, Sara Mahdavi, Wendy Du, Jessica Williams, David Feinbloom, Renee Wong, Tao Tu, Petar Sirkovic, Alessio Orlandi, Christopher Semturs, Yun Liu, Juraj Gottweis, Dale R. Webster, Joëlle Barral, Katherine Chou, Pushmeet Kohli, Avinatan Hassidim, Yossi Matias, James Manyika, Rob Fields, Jonathan X. Li, Marc L. Cohen, Vivek Natarajan, Mike Schaekermann, Alan Karthikesalingam, Adam Rodman2026-03-10🤖 cs.LG

LycheeCluster: Efficient Long-Context Inference with Structure-Aware Chunking and Hierarchical KV Indexing

LycheeCluster ist eine neuartige Methode zur effizienten Verwaltung des KV-Caches bei Large Language Models, die durch semantisch bewusste Chunking und hierarchische Indizierung die lineare Suchkomplexität in logarithmische Zeit umwandelt und damit eine bis zu 3,6-fache Beschleunigung der Inferenz bei minimalen Leistungseinbußen ermöglicht.

Dongfang Li, Zixuan Liu, Gang Lin, Baotian Hu, Min Zhang2026-03-10🤖 cs.LG

Fanar-Sadiq: A Multi-Agent Architecture for Grounded Islamic QA

Der Artikel stellt Fanar-Sadiq vor, ein bilingualer (arabisch/englisch) Multi-Agenten-Assistent, der durch eine spezialisierte, werkzeuggestützte Architektur und Retrieval-Augmented Generation (RAG) halluzinationsfreie, zitiergenaue Antworten auf islamische Rechtsfragen, Koranverse sowie exakte Berechnungen für Zakat und Erbrecht liefert.

Ummar Abbas, Mourad Ouzzani, Mohamed Y. Eltabakh, Omar Sinan, Gagan Bhatia, Hamdy Mubarak, Majd Hawasly, Mohammed Qusay Hashim, Kareem Darwish, Firoj Alam2026-03-10💬 cs.CL

Drift-to-Action Controllers: Budgeted Interventions with Online Risk Certificates

Die Arbeit stellt Drift2Act vor, einen Controller, der durch die Kombination von Drift-Erkennung und aktiven Risikozertifikaten mit verzögerten Labels das Monitoring von Machine-Learning-Systemen in einen sicheren, budgetierten Entscheidungsprozess umwandelt, der bei Distribution-Drift automatisch zwischen kostengünstigen Anpassungen und sicheren Eskalationen wählt.

Ismail Lamaakal, Chaymae Yahyati, Khalid El Makkaoui, Ibrahim Ouahbi, Yassine Maleh2026-03-10🤖 cs.LG

OfficeQA Pro: An Enterprise Benchmark for End-to-End Grounded Reasoning

Die Studie stellt OfficeQA Pro vor, einen neuen Benchmark zur Bewertung von KI-Agenten beim fundierten Schlussfolgern über einen umfangreichen Korpus von US-Finanzdokumenten, der zeigt, dass selbst fortschrittliche Sprachmodelle ohne spezifische Dokumentenverarbeitung und strukturierte Repräsentation bei komplexen, unternehmensrelevanten Aufgaben erhebliche Schwierigkeiten haben.

Krista Opsahl-Ong, Arnav Singhvi, Jasmine Collins, Ivan Zhou, Cindy Wang, Ashutosh Baheti, Owen Oertell, Jacob Portes, Sam Havens, Erich Elsen, Michael Bendersky, Matei Zaharia, Xing Chen2026-03-10💬 cs.CL

How Far Can Unsupervised RLVR Scale LLM Training?

Diese Arbeit analysiert umfassend das unüberwachte Reinforcement Learning mit verifizierbaren Belohnungen (URLVR), zeigt auf, dass intrinsische Belohnungsmethoden aufgrund einer theoretisch bedingten Konvergenz zur Verschärfung der anfänglichen Modellverteilung zwangsläufig in einem „Rise-and-Fall"-Muster mit anschließendem Zusammenbruch enden, und schlägt externe Belohnungsmechanismen als vielversprechende Alternative zur Überwindung dieser Skalierungsgrenzen vor.

Bingxiang He, Yuxin Zuo, Zeyuan Liu, Shangziqi Zhao, Zixuan Fu, Junlin Yang, Cheng Qian, Kaiyan Zhang, Yuchen Fan, Ganqu Cui, Xiusi Chen, Youbang Sun, Xingtai Lv, Xuekai Zhu, Li Sheng, Ran Li, Huan-ang Gao, Yuchen Zhang, Bowen Zhou, Zhiyuan Liu, Ning Ding2026-03-10🤖 cs.LG

Agentic Critical Training

Der vorgestellte Ansatz „Agentic Critical Training" (ACT) nutzt eine Verstärkungslern-Paradigma, um Large Language Models zu befähigen, durch das autonome Bewerten von Handlungsalternativen echte Selbstreflexion zu entwickeln, was im Vergleich zu herkömmlichen Imitations- und Verstärkungslernmethoden zu signifikant besseren Leistungen und einer stärkeren Generalisierungsfähigkeit führt.

Weize Liu, Minghui Liu, Sy-Tuyen Ho, Souradip Chakraborty, Xiyao Wang, Furong Huang2026-03-10🤖 cs.LG