Class Incremental Learning with Task-Specific Batch Normalization and Out-of-Distribution Detection

Diese Studie stellt ein neuartiges Framework für das kontinuierliche Lernen vor, das durch die Einführung von task-spezifischer Batch-Normalisierung und eine Vorhersage der Task-ID mittels Out-of-Distribution-Detektion das katastrophale Vergessen in der klassenbasierten inkrementellen Lernumgebung effektiv reduziert.

Zhiping Zhou, Xuchen Xie, Yiqiao Qiu, Run Lin, Weishi Zheng, Ruixuan Wang2026-03-12🤖 cs.LG

Conditional Local Importance by Quantile Expectations

Die Arbeit stellt CLIQUE vor, eine neue modellunabhängige Methode zur Berechnung der lokalen Variablenwichtigkeit, die im Gegensatz zu etablierten Verfahren wie LIME und SHAP lokale Abhängigkeiten und Interaktionen erfasst, insbesondere bei Mehrklassen-Klassifikationsproblemen, und Verzerrungen in Bereichen reduziert, in denen Variablen keinen Einfluss auf die Antwort haben.

Kelvyn K. Bladen, Adele Cutler, D. Richard Cutler, Kevin R. Moon2026-03-12📊 stat

Graph machine learning for flight delay prediction due to holding manouver

Diese Studie nutzt Graph-Machine-Learning-Techniken, um Flugverspätungen durch Warteschleifen vorherzusagen, wobei ein CatBoost-Modell, das durch Graph-Features angereichert ist, im Vergleich zu Graph Attention Networks (GATs) bessere Ergebnisse auf einer unausgeglichenen Datensatz liefert und die Grundlage für ein webbasiertes Echtzeit-Vorhersagewerkzeug bildet.

Jorge L. Franco, Manoel V. Machado Neto, Filipe A. N. Verri + 1 more2026-03-12🤖 cs.LG

Boosting Cross-problem Generalization in Diffusion-Based Neural Combinatorial Solver via Inference Time Adaptation

Die vorgestellte Arbeit führt mit DIFU-Ada ein trainingsfreies Adaptionsframework ein, das diffusionsbasierte neuronale Kombinatorische-Optimierungslöser befähigt, durch Inference-Time-Anpassung eine Zero-Shot-Verallgemeinerung auf verschiedene Problemvarianten und -skalen zu erreichen, ohne zusätzliche Trainingsdaten zu benötigen.

Haoyu Lei, Kaiwen Zhou, Yinchuan Li, Zhitang Chen, Farzan Farnia2026-03-12🤖 cs.LG

Are Deep Speech Denoising Models Robust to Adversarial Noise?

Die Studie zeigt, dass aktuelle Deep-Learning-Sprachentstörungssysteme durch psychoakustisch getarnte adversariale Störgeräusche so manipuliert werden können, dass sie unverständlichen Unsinn erzeugen, obwohl die Störungen für Menschen kaum wahrnehmbar sind, was die Notwendigkeit von Gegenmaßnahmen für den Einsatz in sicherheitskritischen Anwendungen unterstreicht.

Will Schwarzer, Neel Chaudhari, Philip S. Thomas, Andrea Fanelli, Xiaoyu Liu2026-03-12⚡ eess

An Algorithm to perform Covariance-Adjusted Support Vector Classification in Non-Euclidean Spaces

Die Studie stellt einen Algorithmus vor, der die Support-Vector-Classification in nicht-euklidischen Räumen durch die Integration der Datenkovarianz mittels Cholesky-Zerlegung in das Optimierungsproblem verbessert und damit die Suboptimalität herkömmlicher KKT-Bedingungen sowie eine signifikant höhere Klassifikationsleistung im Vergleich zu traditionellen SVM-Ansätzen nachweist.

Satyajeet Sahoo, Jhareswar Maiti2026-03-12📊 stat

Scalable Multi-Task Learning through Spiking Neural Networks with Adaptive Task-Switching Policy for Intelligent Autonomous Agents

Die vorgestellte Arbeit stellt SwitchMT vor, eine neuartige Methode, die adaptive Task-Switching-Policies und Deep Spiking Q-Networks nutzt, um die Skalierbarkeit und Leistung von ressourcenbeschränkten autonomen Agenten beim gleichzeitigen Lernen mehrerer Aufgaben zu verbessern und dabei Task-Interferenzen ohne Erhöhung der Netzwerkkomplexität zu überwinden.

Rachmad Vidya Wicaksana Putra, Avaneesh Devkota, Muhammad Shafique2026-03-12🤖 cs.AI

LLLMs: A Data-Driven Survey of Evolving Research on Limitations of Large Language Models

Diese Studie bietet eine datengestützte, halbautomatische Übersicht über die Forschung zu den Grenzen großer Sprachmodelle (LLLMs) von 2022 bis Anfang 2025, die auf einer Analyse von 14.648 relevanten Arbeiten aus 250.000 ACL- und arXiv-Publikationen basiert und zeigt, dass sich der Anteil dieser Forschung stark erhöht hat, wobei Schlussfolgern die am intensivsten untersuchte Einschränkung bleibt.

Aida Kostikova, Zhipin Wang, Deidamea Bajri, Ole Pütz, Benjamin Paaßen, Steffen Eger2026-03-12💬 cs.CL

Consistency-based Abductive Reasoning over Perceptual Errors of Multiple Pre-trained Models in Novel Environments

Diese Arbeit stellt einen konsistenzbasierten abduktiven Rahmen vor, der durch die logische Integration und Fehlerfilterung mehrerer vortrainierter Wahrnehmungsmodelle deren Leistung in neuen Umgebungen mit Verteilungsverschiebungen signifikant verbessert.

Mario Leiva, Noel Ngu, Joshua Shay Kricheli, Aditya Taparia, Ransalu Senanayake, Paulo Shakarian, Nathaniel Bastian, John Corcoran, Gerardo Simari2026-03-12🤖 cs.AI

CARTGen-IR: Synthetic Tabular Data Generation for Imbalanced Regression

Die Studie stellt CARTGen-IR vor, eine effiziente und interpretierbare Methode zur synthetischen Datengenerierung für tabellarische Daten mit unausgewogenen Regressionszielen, die mittels relevanz- und dichtegesteuerten Samplingverfahren ohne willkürliche Schwellenwerte realistische Stichproben erzeugt und damit die Leistung von Regressionsmodellen in extremen Wertebereichen verbessert.

António Pedro Pinheiro, Rita P. Ribeiro2026-03-12🤖 cs.LG