A Multi-Agent Framework for Interpreting Multivariate Physiological Time Series

Die Studie stellt Vivaldi, ein Multi-Agenten-Framework zur Erklärung multivariater physiologischer Zeitreihen vor, und zeigt, dass dessen Nutzen stark vom verwendeten Modelltyp abhängt, da es nicht-überlegende Modelle verbessert, während es bei denkenden Modellen oft die Erklärqualität verschlechtert, obwohl die diagnostische Präzision steigt.

Davide Gabrielli, Paola Velardi, Stefano Faralli + 1 more2026-03-05🤖 cs.LG

Learning Hip Exoskeleton Control Policy via Predictive Neuromusculoskeletal Simulation

Diese Studie stellt einen physikbasierten neuromuskuloskelettalen Lernrahmen vor, der einen Hip-Exoskelett-Regler ausschließlich in der Simulation trainiert und durch Policy-Distillation erfolgreich auf Hardware überträgt, wodurch der Bedarf an aufwendigen Motion-Capture-Daten entfällt und eine skalierbare Entwicklung von Exoskelett-Controllern ermöglicht wird.

Ilseung Park, Changseob Song, Inseung Kang2026-03-05🤖 cs.LG

CodeTaste: Can LLMs Generate Human-Level Code Refactorings?

Die Arbeit stellt mit CodeTaste einen Benchmark vor, der zeigt, dass zwar große Sprachmodelle bei detaillierten Anweisungen zuverlässig refaktorisieren können, jedoch oft scheitern, menschliche Entscheidungen für Code-Verbesserungen eigenständig zu erkennen, wobei eine „Vorschlag-dann-Implementierung"-Strategie die Ausrichtung auf menschliche Präferenzen verbessert.

Alex Thillen, Niels Mündler, Veselin Raychev + 1 more2026-03-05🤖 cs.AI

Noise-aware Client Selection for carbon-efficient Federated Learning via Gradient Norm Thresholding

Diese Arbeit stellt einen modularen Ansatz für kohlenstoffeffizientes Federated Learning vor, der durch Gradienten-Norm-Schwellenwerte und Rauschfilterung die Leistungsfähigkeit bestehender Client-Auswahlstrategien verbessert und so die Modellkonvergenz trotz unbekannter Datenqualität und variabler erneuerbarer Energiequellen sicherstellt.

Patrick Wilhelm, Inese Yilmaz, Odej Kao2026-03-05🤖 cs.AI

Beyond Mixtures and Products for Ensemble Aggregation: A Likelihood Perspective on Generalized Means

Diese Arbeit stellt eine likelihood-basierte Analyse der verallgemeinerten Mittelwerte zur Aggregation von Dichteschätzungen vor, die zeigt, dass nur der Bereich r[0,1]r \in [0,1] systematische Verbesserungen gegenüber einzelnen Verteilungen garantiert und damit die theoretische Grundlage für die etablierten linearen und geometrischen Pooling-Methoden liefert.

Raphaël Razafindralambo, Rémy Sun, Frédéric Precioso + 2 more2026-03-05🤖 cs.LG

Beyond Edge Deletion: A Comprehensive Approach to Counterfactual Explanation in Graph Neural Networks

Die Arbeit stellt XPlore vor, ein neuartiges, gradientengesteuertes Framework für die Erzeugung von kontrafaktischen Erklärungen in Graph Neural Networks, das durch die gemeinsame Optimierung von Kantenänderungen und Knotenmerkmalen sowie die Einführung einer kosinusähnlichkeitsbasierten Metrik die Validität und Glaubwürdigkeit der Erklärungen signifikant verbessert.

Matteo De Sanctis, Riccardo De Sanctis, Stefano Faralli + 2 more2026-03-05🤖 cs.LG

Semi-Supervised Generative Learning via Latent Space Distribution Matching

Die Arbeit stellt Latent Space Distribution Matching (LSDM) vor, ein neuartiges Framework für die semi-überwachte generative Modellierung, das durch die Kombination von gepaarten und ungepaarten Daten in einem latenten Raum die Verteilungsmatching-Fehlergrenzen minimiert, die geometrische Genauigkeit verbessert und theoretische Einblicke in die Konsistenz von Latent Diffusion Models liefert.

Kwong Yu Chong, Long Feng2026-03-05🤖 cs.LG

Nearest-Neighbor Density Estimation for Dependency Suppression

Dieses Paper stellt einen neuartigen Encoder-Ansatz vor, der mithilfe eines spezialisierten Variational Autoencoders und nicht-parametrischer Nachbarschaftsdichteschätzung Abhängigkeiten von sensiblen Variablen explizit schätzt und modifiziert, um eine unabhängige Darstellung zu erzeugen, die sowohl über unüberwachte als auch mit überwachenden Methoden vergleichbare Ergebnisse erzielt.

Kathleen Anderson, Thomas Martinetz2026-03-05🤖 cs.LG

Memex(RL): Scaling Long-Horizon LLM Agents via Indexed Experience Memory

Die Arbeit stellt Memex vor, ein durch Reinforcement Learning (MemexRL) optimiertes, indiziertes Erfahrungsspeichersystem, das die Begrenzung von Kontextfenstern bei langen LLM-Agenten-Aufgaben überwindet, indem es vollständige Interaktionen extern speichert und nur strukturierte Zusammenfassungen sowie stabile Indizes im Arbeitskontext behält, um so den Informationsverlust herkömmlicher Zusammenfassungsmethoden zu vermeiden und die Aufgabenleistung zu steigern.

Zhenting Wang, Huancheng Chen, Jiayun Wang + 1 more2026-03-05🤖 cs.LG

IPD: Boosting Sequential Policy with Imaginary Planning Distillation in Offline Reinforcement Learning

Die Arbeit stellt Imaginary Planning Distillation (IPD) vor, ein neues Offline-Reinforcement-Learning-Framework, das durch die Kombination von Weltmodellen, modellprädiktiver Steuerung und einer wertgesteuerten Distillation von Entscheidungstransformern die Leistungsfähigkeit sequenzieller Richtlinien über die Grenzen statischer Datensätze hinaus verbessert.

Yihao Qin, Yuanfei Wang, Hang Zhou + 3 more2026-03-05🤖 cs.AI

Activation Outliers in Transformer Quantization: Reproduction, Statistical Analysis, and Deployment Tradeoffs

Diese Arbeit analysiert die durch strukturierte Aktivierungs-Ausreißer verursachten Genauigkeitsverluste bei der Post-Training-Quantisierung von Transformern und zeigt, dass eine kanalbewusste Präzisionszuweisung (z. B. gemischte Genauigkeit) diese effektiv behebt, während reine Skalierungsklipping-Methoden versagen, wobei die Latenz und der Speicherverbrauch auf der Hardware nahezu unverändert bleiben.

Pranav Kumar Kaliaperumal2026-03-05🤖 cs.AI