Explainable Condition Monitoring via Probabilistic Anomaly Detection Applied to Helicopter Transmissions

Diese Arbeit stellt eine neuartige, erklärbare Methode zur Zustandsüberwachung vor, die ausschließlich auf gesunden Daten basiert, um mittels probabilistischer Anomalieerkennung und Unsicherheitsquantifizierung Fehler in Hubschraubergetrieben frühzeitig zu erkennen und zu interpretieren.

Aurelio Raffa Ugolini, Jessica Leoni, Valentina Breschi, Damiano Paniccia, Francesco Aldo Tucci, Luigi Capone, Mara Tanelli2026-03-10🤖 cs.LG

Mitigating Homophily Disparity in Graph Anomaly Detection: A Scalable and Adaptive Approach

Das Paper stellt SAGAD vor, einen skalierbaren und adaptiven Rahmen für die Graph-Anomalieerkennung, der durch effiziente Multi-Hop-Embeddings, eine an den Anomaliekontext angepasste Fusion von Frequenzinformationen und einen frequenzbasierten Leitverlust die Herausforderungen der Homophilie-Disparität und der Skalierbarkeit bewältigt.

Yunhui Liu, Qizhuo Xie, Yinfeng Chen, Xudong Jin, Tao Zheng, Bin Chong, Tieke He2026-03-10🤖 cs.LG

Training event-based neural networks with exact gradients via Differentiable ODE Solving in JAX

Das Paper stellt Eventax vor, ein in JAX implementiertes Framework, das durch die Kombination differenzierbarer numerischer ODE-Löser mit ereignisbasierter Spike-Verarbeitung den Zielkonflikt zwischen Modellflexibilität und exakten Gradienten bei der Schulung von Spiking Neural Networks auflöst und somit komplexe Neuronenmodelle wie mehrkompartimentige Pyramidenzellen unterstützt.

Lukas König, Manuel Kuhn, David Kappel, Anand Subramoney2026-03-10🤖 cs.LG

Are We Winning the Wrong Game? Revisiting Evaluation Practices for Long-Term Time Series Forecasting

Dieses Papier kritisiert die aktuelle, rein metrikzentrierte Evaluierung von Langzeitzeitreihenvorhersagen als strukturell fehlgeleitet und fordert einen multidimensionalen Ansatz, der statistische Treue, strukturelle Kohärenz und Entscheidungsrelevanz integriert, um den Fokus von bloßen Benchmark-Rankings auf sinnvolle, kontextbewusste Fortschritte zu lenken.

Thanapol Phungtua-eng, Yoshitaka Yamamoto2026-03-10🤖 cs.LG

Covenant-72B: Pre-Training a 72B LLM with Trustless Peers Over-the-Internet

Die Arbeit stellt Covenant-72B vor, ein 72-Milliarden-Parameter-Sprachmodell, das durch den bisher größten kollaborativen, global verteilten Pre-Training-Lauf mit erlaubnisfreier Teilnahme über eine Blockchain-Protokoll und den effizienten SparseLoCo-Optimierer trainiert wurde und dabei mit zentralisierten Modellen vergleichbare Leistung erbringt.

Joel Lidin, Amir Sarfi, Erfan Miahi, Quentin Anthony, Shivam Chauhan, Evangelos Pappas, Benjamin Thérien, Eugene Belilovsky, Samuel Dare2026-03-10🤖 cs.LG

Is continuous CoT better suited for multi-lingual reasoning?

Die Studie zeigt, dass das kontinuierliche Chain-of-Thought-Verfahren (CODI) im Vergleich zur herkömmlichen Feinabstimmung nicht nur eine bis zu 50-fache Kompression der Denkspuren ermöglicht, sondern auch durch seine sprachinvarianten latenten Repräsentationen insbesondere bei ressourcenarmen Sprachen und Zero-Shot-Szenarien deutlich robustere multilinguale Schlussfolgerungen erzielt.

Ali Hamza Bashir, Behzad Shomali, Markus Frey, Mehdi Ali, Rafet Sifa, David Berghaus2026-03-10🤖 cs.LG

ALOOD: Exploiting Language Representations for LiDAR-based Out-of-Distribution Object Detection

Die Arbeit stellt ALOOD vor, eine neuartige Methode zur Erkennung von Out-of-Distribution-Objekten in LiDAR-Daten, die durch die Ausrichtung von Objektdetektor-Features auf Sprachrepräsentationen eines Vision-Language-Modells eine Zero-Shot-Klassifizierung ermöglicht und so die Sicherheit autonomer Fahrsysteme erhöht.

Michael Kösel, Marcel Schreiber, Michael Ulrich, Claudius Gläser, Klaus Dietmayer2026-03-10🤖 cs.LG

AutoAdapt: An Automated Domain Adaptation Framework for LLMs

Das Paper stellt AutoAdapt vor, ein automatisiertes Framework, das durch den Einsatz kuratierter Wissensbasen, eines Multi-Agenten-Debatte-Systems zur Planung und eines LLM-basierten Surrogats namens AutoRefine die Domain-Adaptation von Large Language Models effizienter und zuverlässiger macht und dabei die Genauigkeit im Vergleich zu bestehenden Methoden um durchschnittlich 25 % steigert.

Sidharth Sinha, Anson Bastos, Xuchao Zhang, Akshay Nambi, Chetan Bansal, Saravan Rajmohan2026-03-10🤖 cs.LG

SERQ: Saliency-Aware Low-Rank Error Reconstruction for LLM Quantization

Die Arbeit stellt SERQ vor, eine salienzaware Methode zur Low-Rank-Fehlerrekonstruktion, die durch statische Aktivierungsflachung, salienzaware Fehlerrekonstruktion und offline Gewichtspermutation die Genauigkeit von Large Language Models bei 4-Bit-Quantisierung (W4A4 und W4A8) signifikant verbessert, ohne dabei die Inferenzlatenz durch zusätzliche Online-Schichten zu erhöhen.

Yeonsik Park, Hyeonseong Kim, Seungkyu Choi2026-03-10🤖 cs.LG

Distributional Regression with Tabular Foundation Models: Evaluating Probabilistic Predictions via Proper Scoring Rules

Die Arbeit kritisiert, dass aktuelle Benchmarks für tabellarische Basis-Modelle wie TabPFN nur Punktschätzer bewerten, und fordert die Einführung von angemessenen Bewertungskennzahlen für probabilistische Regression, insbesondere den Continuous Ranked Probability Score (CRPS), um die Unsicherheit von Vorhersagen zu erfassen und die Modelle entsprechend anzupassen.

Jonas Landsgesell, Pascal Knoll2026-03-10🤖 cs.LG

Wiener Chaos Expansion based Neural Operator for Singular Stochastic Partial Differential Equations

Diese Arbeit stellt einen neuartigen Wiener-Chaos-Expansions-basierten neuronalen Operator vor, der mittels Feature-wise Linear Modulation (FiLM) die Abhängigkeit zwischen der Lösung singulärer stochastischer partieller Differentialgleichungen und ihrem glatten Rest erfasst und damit effiziente, renormierungsfreie Surrogatmodelle für dynamische Φ24\boldsymbol{\Phi}^4_2- und Φ34\boldsymbol{\Phi}^4_3-Modelle ermöglicht.

Dai Shi, Luke Thompson, Andi Han, Peiyan Hu, Junbin Gao, José Miguel Hernández-Lobato2026-03-10🤖 cs.LG

The Struggle Between Continuation and Refusal: A Mechanistic Analysis of the Continuation-Triggered Jailbreak in LLMs

Diese Studie analysiert mechanistisch, wie sich die Sicherheit von Large Language Models durch einen Wettstreit zwischen dem inhärenten Fortsetzungsdrang des Modells und den durch Alignment-Training erworbenen Sicherheitsmechanismen unterminieren lässt, und identifiziert dabei spezifische Aufmerksamkeitsköpfe als kritische Faktoren für solche Jailbreak-Angriffe.

Yonghong Deng, Zhen Yang, Ping Jian, Xinyue Zhang, Zhongbin Guo, Chengzhi Li2026-03-10🤖 cs.LG

Optimising antibiotic switching via forecasting of patient physiology

Die vorgestellte Studie entwickelt ein auf neuronalen Prozessen basierendes System, das durch die probabilistische Vorhersage von Vitalparameterverläufen und den Abgleich mit klinischen Leitlinien – statt durch das Lernen aus historischen Entscheidungen – die rechtzeitige Umstellung von intravenösen auf orale Antibiotika verbessert und dabei die klinische Urteilsfähigkeit bewahrt.

Magnus Ross, Nel Swanepoel, Akish Luintel, Emma McGuire, Ingemar J. Cox, Steve Harris, Vasileios Lampos2026-03-10🤖 cs.LG