A White-Box SVM Framework and its Swarm-Based Optimization for Supervision of Toothed Milling Cutter through Characterization of Spindle Vibrations

Diese Arbeit stellt ein weißes SVM-Framework mit schwarmbasierter Optimierung vor, das zur Überwachung von Zahnfräsern durch die Echtzeit-Charakterisierung von Spindelvibrationen und die Analyse von Verschleißmustern dient.

Tejas Y. Deo, B. B. Deshmukh, Keshav H. Jatakar, Kamlesh M. Chhajed, S. S. Pardeshi, R. Jegadeeshwaran, Apoorva N. Khairnar, Hrushikesh S. Khade, A. D. Patange2026-03-10🤖 cs.LG

Automated Reinforcement Learning: An Overview

Dieser Artikel bietet einen Überblick über das automatisierte Reinforcement Learning (AutoRL), das verschiedene Komponenten wie MDP-Modellierung, Algorithmusauswahl und Hyperparameter-Optimierung automatisiert, und fasst dabei aktuelle Forschung, einschließlich LLM-basierter Techniken, sowie zukünftige Herausforderungen und Forschungsrichtungen zusammen.

Reza Refaei Afshar, Joaquin Vanschoren, Uzay Kaymak, Rui Zhang, Yaoxin Wu, Wen Song, Yingqian Zhang2026-03-10🤖 cs.LG

Explainable classification of astronomical uncertain time series

Diese Arbeit stellt ein erklärbares, unsicherheitsbewusstes Subsequenz-Modell vor, das die Klassifizierung astronomischer Zeitreihen mit vergleichbarer Leistung wie Black-Box-Methoden ermöglicht, indem es Datenunsicherheit direkt als Eingabe verarbeitet und Domain-Experten die Nachvollziehbarkeit der Vorhersagen sowie potenzielle neue Erkenntnisse für die theoretische Astrophysik bietet.

Michael Franklin Mbouopda (LIMOS, UCA), Emille E. O. Ishida (LIMOS, UCA), Engelbert Mephu Nguifo (LIMOS, UCA), Emmanuel Gangler (LPC, UCA)2026-03-10🔭 astro-ph

Cost-Driven Representation Learning for Linear Quadratic Gaussian Control: Part I

Dieser Beitrag stellt eine kostengesteuerte Methode zur Erlernung von Zustandsrepräsentationen für die lineare quadratische Gaußsche (LQG) Steuerung vor und liefert erstmals endliche Stichproben-Garantien für die Konvergenz zu einem nahezu optimalen Regler, indem ein latentes Modell ausschließlich durch die Vorhersage von Kosten statt von Beobachtungen gelernt wird.

Yi Tian, Kaiqing Zhang, Russ Tedrake, Suvrit Sra2026-03-10🤖 cs.LG

Remaining-data-free Machine Unlearning by Suppressing Sample Contribution

Die Arbeit stellt MU-Mis vor, eine bahnbrechende Methode zum maschinellen Vergessen, die durch die direkte Unterdrückung der Sensitivität des Modells gegenüber den zu vergessenden Daten diese vollständig entfernt, ohne dabei die Leistung auf den verbleibenden Daten zu beeinträchtigen oder Zugriff auf diese Daten zu benötigen.

Xinwen Cheng, Zhehao Huang, Wenxin Zhou, Zhengbao He, Ruikai Yang, Yingwen Wu, Xiaolin Huang2026-03-10🤖 cs.LG

Survey of Computerized Adaptive Testing: A Machine Learning Perspective

Dieser Übersichtsartikel bietet eine maschinelle Lernperspektive auf den Computerized Adaptive Testing (CAT), indem er die Integration von ML-Techniken in Messmodelle, Fragenauswahl, Itembank-Konstruktion und Teststeuerung analysiert, um robuste, faire und effiziente adaptive Testsysteme zu entwickeln.

Yan Zhuang, Qi Liu, Haoyang Bi, Zhenya Huang, Weizhe Huang, Jiatong Li, Junhao Yu, Zirui Liu, Zirui Hu, Yuting Hong, Zachary A. Pardos, Haiping Ma, Mengxiao Zhu, Shijin Wang, Enhong Chen2026-03-10🤖 cs.LG

LoRA-Ensemble: Efficient Uncertainty Modelling for Self-Attention Networks

Die Arbeit stellt LoRA-Ensemble vor, eine parametereffiziente Methode zur Unsicherheitsmodellierung in Self-Attention-Netzwerken, die durch die Nutzung individueller Low-Rank-Matrizen innerhalb eines geteilten Moduls die Genauigkeit expliziter Ensembles erreicht und gleichzeitig eine überlegene Kalibrierung sowie geringere Rechenkosten bietet.

Dominik J. Mühlematter, Michelle Halbheer, Alexander Becker, Dominik Narnhofer, Helge Aasen, Konrad Schindler, Mehmet Ozgur Turkoglu2026-03-10🤖 cs.LG

Fast Explanations via Policy Gradient-Optimized Explainer

Die Arbeit stellt FEX vor, ein neuartiges Framework, das attributionsbasierte Erklärungen durch Wahrscheinlichkeitsverteilungen und Policy-Gradient-Optimierung ermöglicht, um die Erklärungszeit um über 97 % und den Speicherverbrauch um 70 % im Vergleich zu herkömmlichen modellunabhängigen Ansätzen zu reduzieren, ohne dabei die Qualität oder allgemeine Anwendbarkeit zu beeinträchtigen.

Deng Pan, Nuno Moniz, Nitesh Chawla2026-03-10🤖 cs.LG

Exploring Diffusion Models' Corruption Stage in Few-Shot Fine-tuning and Mitigating with Bayesian Neural Networks

Diese Arbeit identifiziert und analysiert eine unerwartete „Korruptionsphase" während des Few-Shot-Fine-Tunings von Diffusionsmodellen, die durch eine verengte Lernverteilung verursacht wird, und schlägt vor, Bayesianische Neuronale Netze zur impliziten Verbreiterung dieser Verteilung einzusetzen, um die Bildqualität und Vielfalt zu verbessern, ohne zusätzliche Inferenzkosten zu verursachen.

Xiaoyu Wu, Jiaru Zhang, Yang Hua, Bohan Lyu, Hao Wang, Tao Song, Haibing Guan2026-03-10🤖 cs.LG

DKDL-Net: A Lightweight Bearing Fault Detection Model via Decoupled Knowledge Distillation and Low-Rank Adaptation Fine-tuning

Die vorgestellte Arbeit stellt DKDL-Net vor, ein leichtgewichtiges Modell zur Erkennung von Wälzlagerfehlern, das durch Entkopplung von Wissensdistillation und Low-Rank-Adaptions-Feinabstimmung eine Genauigkeit von 99,48 % bei deutlich reduzierter Parameteranzahl erreicht und damit den aktuellen Stand der Technik übertrifft.

Ovanes Petrosian, Li Pengyi, He Yulong + 4 more2026-03-10🤖 cs.LG

Estimating Treatment Effects under Algorithmic Interference: A Structured Neural Networks Approach

Die Studie stellt einen strukturierten semiparametrischen Ansatz vor, der auf Double Machine Learning basiert, um verzerrte Schätzer in randomisierten Experimenten auf Plattformen mit algorithmischer Interferenz zu korrigieren und so präzise globale Behandlungseffekte für den flächendeckenden Einsatz von Algorithmen zu ermöglichen.

Ruohan Zhan, Shichao Han, Yuchen Hu, Zhenling Jiang2026-03-10🤖 cs.LG

Mini-batch Estimation for Deep Cox Models: Statistical Foundations and Practical Guidance

Die Arbeit etabliert die statistischen Grundlagen des Mini-Batch-Maximum-Partial-Likelihood-Schätzers (mb-MPLE) für Deep-Cox-Modelle, beweist dessen Konsistenz und asymptotische Normalität und liefert praktische Richtlinien für das Hyperparameter-Tuning sowie die Anwendung in großskaligen Szenarien, in denen herkömmliche Schätzer nicht berechenbar sind.

Lang Zeng, Weijing Tang, Zhao Ren, Ying Ding2026-03-10🤖 cs.LG

Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling

Diese Arbeit schlägt einen effizienten Annealed Importance Sampling-Ansatz zur Verbesserung des Variational Learning von Gaussian Process Latent Variable Models vor, der durch eine sequenzielle Transformation der Posterior-Verteilung und eine Reparameterisierung des ELBO robustere Konvergenz und engere Variationsgrenzen als bestehende Methoden erreicht.

Jian Xu, Shian Du, Junmei Yang, Qianli Ma, Delu Zeng, John Paisley2026-03-10🤖 cs.LG

From Model Explanation to Data Misinterpretation: A Cautionary Analysis of Post Hoc Explainers in Business Research

Die Studie warnt davor, Post-Hoc-Erklärungen wie SHAP und LIME in der Wirtschaftsforschung zur Hypothesenvalidierung zu verwenden, da sie trotz hoher Vorhersagegenauigkeit durch Feature-Korrelationen und den Rashomon-Effekt oft keine zuverlässigen Rückschlüsse auf die tatsächlichen Datenzusammenhänge zulassen und daher eher als explorative als als bestätigende Werkzeuge eingesetzt werden sollten.

Tong Wang (Jeffrey), Ronilo Ragodos (Jeffrey), Lu Feng (Jeffrey), Yu (Jeffrey), Hu2026-03-10🤖 cs.LG