Revealing Behavioral Plasticity in Large Language Models: A Token-Conditional Perspective

Die Arbeit stellt das Token-Conditioned Reinforcement Learning (ToCoRL)-Framework vor, das die inhärente Verhaltensplastizität von Large Language Models durch token-bedingte Generierung und Verstärkungslernen nutzt, um präzise Verhaltensanpassungen ohne Kapazitätsverlust zu ermöglichen, wie etwa die Umwandlung von rechenintensiven Modellen in effiziente Faktenfragesteller.

Liyuan Mao, Le Yu, Jing Zhou, Chujie Zheng, Bowen Yu, Chang Gao, Shixuan Liu, An Yang, Weinan Zhang, JunYang Lin2026-03-10🤖 cs.LG

A prospective clinical feasibility study of a conversational diagnostic AI in an ambulatory primary care clinic

Diese prospektive Machbarkeitsstudie zeigt, dass ein konversationsbasiertes KI-System (AMIE) in einer realen ambulanten Umgebung sicher eingesetzt werden kann, von Patienten und Ärzten positiv bewertet wird und in Bezug auf Diagnosequalität und Behandlungspläne mit Hausärzten vergleichbar ist, wenngleich diese bei der praktischen Umsetzbarkeit und Kosteneffizienz überlegen sind.

Peter Brodeur, Jacob M. Koshy, Anil Palepu, Khaled Saab, Ava Homiar, Roma Ruparel, Charles Wu, Ryutaro Tanno, Joseph Xu, Amy Wang, David Stutz, Hannah M. Ferrera, David Barrett, Lindsey Crowley, Jihyeon Lee, Spencer E. Rittner, Ellery Wulczyn, Selena K. Zhang, Elahe Vedadi, Christine G. Kohn, Kavita Kulkarni, Vinay Kadiyala, Sara Mahdavi, Wendy Du, Jessica Williams, David Feinbloom, Renee Wong, Tao Tu, Petar Sirkovic, Alessio Orlandi, Christopher Semturs, Yun Liu, Juraj Gottweis, Dale R. Webster, Joëlle Barral, Katherine Chou, Pushmeet Kohli, Avinatan Hassidim, Yossi Matias, James Manyika, Rob Fields, Jonathan X. Li, Marc L. Cohen, Vivek Natarajan, Mike Schaekermann, Alan Karthikesalingam, Adam Rodman2026-03-10🤖 cs.LG

LycheeCluster: Efficient Long-Context Inference with Structure-Aware Chunking and Hierarchical KV Indexing

LycheeCluster ist eine neuartige Methode zur effizienten Verwaltung des KV-Caches bei Large Language Models, die durch semantisch bewusste Chunking und hierarchische Indizierung die lineare Suchkomplexität in logarithmische Zeit umwandelt und damit eine bis zu 3,6-fache Beschleunigung der Inferenz bei minimalen Leistungseinbußen ermöglicht.

Dongfang Li, Zixuan Liu, Gang Lin, Baotian Hu, Min Zhang2026-03-10🤖 cs.LG

Adaptive Entropy-Driven Sensor Selection in a Camera-LiDAR Particle Filter for Single-Vessel Tracking

Diese Arbeit stellt einen adaptiven, entropiegesteuerten Sensorauswahlmechanismus für einen Kamera-LiDAR-Partikelfilter vor, der in einer realen maritimen Testumgebung in Zypern nachweist, dass durch die dynamische Auswahl der informativsten Sensorkonfiguration eine robuste Einzel-Schiff-Verfolgung mit einem optimalen Kompromiss zwischen Genauigkeit und Kontinuität erreicht wird.

Andrei Starodubov, Yaqub Aris Prabowo, Andreas Hadjipieris, Ioannis Kyriakides, Roberto Galeazzi2026-03-10🤖 cs.LG

Reasoning as Compression: Unifying Budget Forcing via the Conditional Information Bottleneck

Die Arbeit stellt einen neuen Ansatz vor, der effizientes Schlussfolgern als verlustbehaftete Kompression unter dem Prinzip des bedingten Informationsengpasses (CIB) neu definiert, um durch ein semantisches Prior-Modell und eine verstärkende Lernzielsetzung die Token-Kosten zu senken, ohne dabei die logische Genauigkeit oder den Fluss der Antwort zu beeinträchtigen.

Fabio Valerio Massoli, Andrey Kuzmin, Arash Behboodi2026-03-10🤖 cs.LG

MUSA-PINN: Multi-scale Weak-form Physics-Informed Neural Networks for Fluid Flow in Complex Geometries

Die Studie stellt MUSA-PINN vor, eine Multi-Skalen-Weak-form-Physik-informierte neuronale Netzwerk-Methode, die durch die Formulierung von PDE-Beschränkungen als integrale Erhaltungsgesetze auf hierarchischen Kontrollvolumina die Konvergenzprobleme herkömmlicher PINNs bei Strömungen in komplexen TPMS-Geometrien überwindet und dabei die Genauigkeit erheblich steigert sowie die Massenerhaltung gewährleistet.

Weizheng Zhang, Xunjie Xie, Hao Pan, Xiaowei Duan, Bingteng Sun, Qiang Du, Lin lu2026-03-10🤖 cs.LG

Integrating Lagrangian Neural Networks into the Dyna Framework for Reinforcement Learning

Diese Arbeit integriert Lagrange-Neuronale Netze in das Dyna-Framework für modellbasiertes Reinforcement Learning, um physikalische Gesetze zu erzwingen und die Vorhersagegenauigkeit zu verbessern, wobei ein zustandsbasiertes Optimierungsverfahren eine schnellere Konvergenz als stochastische Gradientenverfahren aufweist.

Shreya Das, Kundan Kumar, Muhammad Iqbal, Outi Savolainen, Dominik Baumann, Laura Ruotsalainen, Simo Särkkä2026-03-10🤖 cs.LG

STRIDE: Structured Lagrangian and Stochastic Residual Dynamics via Flow Matching

Die Arbeit stellt STRIDE vor, ein Framework zur Vorhersage der Roboterdynamik in unstrukturierten Umgebungen, das konservative Lagrange-Mechanik über ein Lagrange-Neuronales Netz mit stochastischen Restdynamiken mittels bedingtem Flow-Matching kombiniert, um physikalische Konsistenz und präzise Modellierung komplexer Interaktionen zu gewährleisten.

Prakrut Kotecha, Ganga Nair B, Shishir Kolathaya2026-03-10🤖 cs.LG

NN-OpInf: an operator inference approach using structure-preserving composable neural networks

Der Artikel stellt NN-OpInf vor, ein struktur-erhaltendes Operator-Inferenz-Framework, das kompositionsfähige neuronale Netze nutzt, um nicht-intrusive reduzierte Ordnungsmodelle für dynamische Systeme zu erstellen, die bei nicht-polynomialen Nichtlinearitäten eine höhere Genauigkeit und Stabilität als herkömmliche polynomialbasierte Ansätze bieten.

Eric Parish, Anthony Gruber, Patrick Blonigan, Irina Tezaur2026-03-10🤖 cs.LG