Losing dimensions: Geometric memorization in generative diffusion

Die Studie zeigt, dass Diffusionsmodelle bei knappen Daten nicht abrupt, sondern durch einen allmählichen geometrischen Zusammenbruch ihrer latenten Dimensionalität memorieren, bei dem zunächst markante Merkmale und dann feinere Details eingefroren werden, was zu einer Phase zwischen Generalisierung und exakter Kopie führt.

Beatrice Achilli, Enrico Ventura, Gianluigi Silvestri, Bao Pham, Gabriel Raya, Dmitry Krotov, Carlo Lucibello, Luca Ambrogioni2026-03-12📊 stat

Enhancing Brain Source Reconstruction by Initializing 3D Neural Networks with Physical Inverse Solutions

Die Studie stellt 3D-PIUNet vor, eine hybride Methode zur EEG-Quellenlokalisation, die physikalische Inverslösungen zur Initialisierung mit einem 3D-Convolutional-U-Net kombiniert, um die räumliche Genauigkeit der Gehirnquellen-Rekonstruktion sowohl bei simulierten als auch bei realen Daten signifikant zu verbessern.

Marco Morik, Ali Hashemi, Klaus-Robert Müller, Stefan Haufe, Shinichi Nakajima2026-03-12⚡ eess

Class Incremental Learning with Task-Specific Batch Normalization and Out-of-Distribution Detection

Diese Studie stellt ein neuartiges Framework für das kontinuierliche Lernen vor, das durch die Einführung von task-spezifischer Batch-Normalisierung und eine Vorhersage der Task-ID mittels Out-of-Distribution-Detektion das katastrophale Vergessen in der klassenbasierten inkrementellen Lernumgebung effektiv reduziert.

Zhiping Zhou, Xuchen Xie, Yiqiao Qiu, Run Lin, Weishi Zheng, Ruixuan Wang2026-03-12🤖 cs.LG

Conditional Local Importance by Quantile Expectations

Die Arbeit stellt CLIQUE vor, eine neue modellunabhängige Methode zur Berechnung der lokalen Variablenwichtigkeit, die im Gegensatz zu etablierten Verfahren wie LIME und SHAP lokale Abhängigkeiten und Interaktionen erfasst, insbesondere bei Mehrklassen-Klassifikationsproblemen, und Verzerrungen in Bereichen reduziert, in denen Variablen keinen Einfluss auf die Antwort haben.

Kelvyn K. Bladen, Adele Cutler, D. Richard Cutler, Kevin R. Moon2026-03-12📊 stat

Graph machine learning for flight delay prediction due to holding manouver

Diese Studie nutzt Graph-Machine-Learning-Techniken, um Flugverspätungen durch Warteschleifen vorherzusagen, wobei ein CatBoost-Modell, das durch Graph-Features angereichert ist, im Vergleich zu Graph Attention Networks (GATs) bessere Ergebnisse auf einer unausgeglichenen Datensatz liefert und die Grundlage für ein webbasiertes Echtzeit-Vorhersagewerkzeug bildet.

Jorge L. Franco, Manoel V. Machado Neto, Filipe A. N. Verri + 1 more2026-03-12🤖 cs.LG

Boosting Cross-problem Generalization in Diffusion-Based Neural Combinatorial Solver via Inference Time Adaptation

Die vorgestellte Arbeit führt mit DIFU-Ada ein trainingsfreies Adaptionsframework ein, das diffusionsbasierte neuronale Kombinatorische-Optimierungslöser befähigt, durch Inference-Time-Anpassung eine Zero-Shot-Verallgemeinerung auf verschiedene Problemvarianten und -skalen zu erreichen, ohne zusätzliche Trainingsdaten zu benötigen.

Haoyu Lei, Kaiwen Zhou, Yinchuan Li, Zhitang Chen, Farzan Farnia2026-03-12🤖 cs.LG

Are Deep Speech Denoising Models Robust to Adversarial Noise?

Die Studie zeigt, dass aktuelle Deep-Learning-Sprachentstörungssysteme durch psychoakustisch getarnte adversariale Störgeräusche so manipuliert werden können, dass sie unverständlichen Unsinn erzeugen, obwohl die Störungen für Menschen kaum wahrnehmbar sind, was die Notwendigkeit von Gegenmaßnahmen für den Einsatz in sicherheitskritischen Anwendungen unterstreicht.

Will Schwarzer, Neel Chaudhari, Philip S. Thomas, Andrea Fanelli, Xiaoyu Liu2026-03-12⚡ eess

An Algorithm to perform Covariance-Adjusted Support Vector Classification in Non-Euclidean Spaces

Die Studie stellt einen Algorithmus vor, der die Support-Vector-Classification in nicht-euklidischen Räumen durch die Integration der Datenkovarianz mittels Cholesky-Zerlegung in das Optimierungsproblem verbessert und damit die Suboptimalität herkömmlicher KKT-Bedingungen sowie eine signifikant höhere Klassifikationsleistung im Vergleich zu traditionellen SVM-Ansätzen nachweist.

Satyajeet Sahoo, Jhareswar Maiti2026-03-12📊 stat

Scalable Multi-Task Learning through Spiking Neural Networks with Adaptive Task-Switching Policy for Intelligent Autonomous Agents

Die vorgestellte Arbeit stellt SwitchMT vor, eine neuartige Methode, die adaptive Task-Switching-Policies und Deep Spiking Q-Networks nutzt, um die Skalierbarkeit und Leistung von ressourcenbeschränkten autonomen Agenten beim gleichzeitigen Lernen mehrerer Aufgaben zu verbessern und dabei Task-Interferenzen ohne Erhöhung der Netzwerkkomplexität zu überwinden.

Rachmad Vidya Wicaksana Putra, Avaneesh Devkota, Muhammad Shafique2026-03-12🤖 cs.AI