Embedding interpretable 1\ell_1-regression into neural networks for uncovering temporal structure in cell imaging

Diese Arbeit stellt eine Methode vor, die ein interpretierbares, durch 1\ell_1-Regularisierung sparse autoregressives Modell in ein Convolutional Autoencoder integriert, um aus Zwei-Photonen-Calcium-Bilddaten sowohl reduzierte zeitliche Dynamiken als auch räumliche Beitragskarten zu extrahieren.

Fabian Kabus, Maren Hackenberg, Julia Hindel, Thibault Cholvin, Antje Kilias, Thomas Brox, Abhinav Valada, Marlene Bartos, Harald Binder2026-03-10🤖 cs.LG

Why Adam Can Beat SGD: Second-Moment Normalization Yields Sharper Tails

Diese Arbeit liefert den ersten theoretischen Beweis, dass Adam im Vergleich zu SGD unter der klassischen Annahme beschränkter Varianz durch eine zweite Momenten-Normalisierung eine überlegene Konvergenz mit einer δ1/2\delta^{-1/2}-Abhängigkeit vom Konfidenzparameter δ\delta erreicht, während SGD mindestens eine δ1\delta^{-1}-Abhängigkeit aufweist.

Ruinan Jin, Yingbin Liang, Shaofeng Zou2026-03-10🤖 cs.LG

XInsight: Integrative Stage-Consistent Psychological Counseling Support Agents for Digital Well-Being

Das Paper stellt XInsight vor, ein mehrstufiges Multi-Agenten-Framework, das psychologische Unterstützung durch einen klinisch fundierten Workflow nach dem Explorations-Einsicht-Aktions-Paradigma strukturiert, um die Transparenz, Interpretierbarkeit und therapeutische Wirksamkeit von KI-gestützten Beratungschatbots für das digitale Wohlbefinden zu verbessern.

Fei Wang, Jiangnan Yang, Junjie Chen, Yuxin Liu, Kun Li, Yanyan Wei, Dan Guo, Meng Wang2026-03-10🤖 cs.LG

Know When You're Wrong: Aligning Confidence with Correctness for LLM Error Detection

Diese Arbeit stellt einen normalisierten Konfidenzscore vor, der Fehler in Large Language Models zuverlässig erkennt, zeigt, dass Reinforcement-Learning-Methoden zu übermäßigem Selbstvertrauen führen, und schlägt eine Nachschulung mit Selbst-Distillation vor, um die Kalibrierung wiederherzustellen und die Effizienz von Retrieval-Augmented Generation zu steigern.

Xie Xiaohu, Liu Xiaohu, Yao Benjamin2026-03-10🤖 cs.LG

Structure-Aware Set Transformers: Temporal and Variable-Type Attention Biases for Asynchronous Clinical Time Series

Die Arbeit stellt STAR-Set vor, einen strukturbewussten Set-Transformer, der durch parametereffiziente, weiche Aufmerksamkeitsverzerrungen für zeitliche Lokalität und Variablentyp-Kompatibilität die Lücken bei der Verarbeitung asynchroner klinischer Zeitreihen schließt und auf drei ICU-Vorhersageaufgaben die Leistung bestehender Gitter- und Set-basierter Basismodelle übertrifft.

Joohyung Lee, Kwanhyung Lee, Changhun Kim, Eunho Yang2026-03-10🤖 cs.LG

Multi-Agent DRL for V2X Resource Allocation: Disentangling Challenges and Benchmarking Solutions

Diese Arbeit entwirft eine systematische Benchmark-Suite, die Multi-Agenten-DRL-Herausforderungen in C-V2X-Ressourcenallokation isoliert und zeigt, dass Robustheit und Generalisierung gegenüber veränderlichen Verkehrstopologien die dominierenden Hürden darstellen, wobei actor-critic-Methoden die besten Ergebnisse erzielen.

Siyuan Wang, Lei Lei, Pranav Maheshwari, Sam Bellefeuille, Kan Zheng, Dusit Niyato2026-03-10🤖 cs.LG