Disjunctive Branch-and-Bound for Certifiably Optimal Low-Rank Matrix Completion

Dieses Paper stellt eine neue Methode vor, die Low-Rank-Matrix-Vervollständigung durch eine disjunktive Branch-and-Bound-Strategie und neuartige konvexe Relaxierungen löst, um für Probleme bis zu 2500 Dimensionen und Rang 5 zertifizierbare Optimalität zu erreichen und dabei die Testfehler im Vergleich zu etablierten Heuristiken signifikant zu senken.

Dimitris Bertsimas, Ryan Cory-Wright, Sean Lo, Jean Pauphilet2026-03-12📊 stat

Mindstorms in Natural Language-Based Societies of Mind

Die Arbeit stellt natürliche sprachbasierte Gesellschaften des Geistes (NLSOMs) vor, die durch die modulare Zusammenarbeit großer multimodaler neuronaler Netze über eine natürliche Schnittstelle komplexe KI-Aufgaben lösen und dabei neue Forschungsfragen zur optimalen sozialen Struktur und ökonomischen Steuerung solcher heterogenen Agenten-Systeme aufwerfen.

Mingchen Zhuge, Haozhe Liu, Francesco Faccio, Dylan R. Ashley, Róbert Csordás, Anand Gopalakrishnan, Abdullah Hamdi, Hasan Abed Al Kader Hammoud, Vincent Herrmann, Kazuki Irie, Louis Kirsch, Bing Li, Guohao Li, Shuming Liu, Jinjie Mai, Piotr Pi\k{e}kos, Aditya Ramesh, Imanol Schlag, Weimin Shi, Aleksandar Stanic, Wenyi Wang, Yuhui Wang, Mengmeng Xu, Deng-Ping Fan, Bernard Ghanem, Jürgen Schmidhuber2026-03-12💬 cs.CL

Optimal Transport Aggregation for Distributed Mixture-of-Experts

Der Artikel stellt ein effizientes, auf Optimaler Transport basierendes Aggregationsverfahren für verteilte Mixture-of-Experts-Modelle vor, das durch Minimierung einer Transportdivergenz eine globale Schätzung mit nur einem Kommunikationsschritt ermöglicht und dabei statistische Konsistenz sowie eine dem zentralen Training vergleichbare Leistung bei deutlich reduzierter Rechenzeit garantiert.

Faïcel Chamroukhi, Nhat Thien Pham2026-03-12📊 stat

Communication-Efficient Multimodal Federated Learning: Joint Modality and Client Selection

Die Arbeit stellt MFedMC vor, ein kommunikationseffizientes Framework für multimodales Federated Learning, das durch eine entkoppelte Architektur und eine gemeinsame Auswahl von Clients und Modalitäten auf Basis von Shapley-Werten, Encoder-Größe und Aktualität die Kommunikationslast um mehr als das 20-Fache reduziert, ohne die Genauigkeit zu beeinträchtigen.

Liangqi Yuan, Dong-Jun Han, Su Wang, Devesh Upadhyay, Christopher G. Brinton2026-03-12🤖 cs.LG

Fast Fishing: Approximating BAIT for Efficient and Scalable Deep Active Image Classification

Diese Arbeit stellt zwei effiziente Approximationsmethoden für die BAIT-Strategie im Deep Active Learning vor, die durch eine Reduzierung der Fisher-Information auf die wahrscheinlichsten Klassen und die Umformulierung als binäre Klassifikation die Skalierbarkeit auf große Datensätze wie ImageNet ermöglichen, ohne dabei die Leistungsfähigkeit zu beeinträchtigen.

Denis Huseljic, Paul Hahn, Marek Herde + 2 more2026-03-12🤖 cs.LG

Explainable machine learning for predicting shellfish toxicity in the Adriatic Sea using long-term monitoring data of HABs

Diese Studie nutzt erklärbare maschinelle Lernverfahren auf einem 28-jährigen Datensatz, um die Toxizität von Muscheln im Golf von Triest durch schädliche Algenblüten vorherzusagen und identifiziert dabei spezifische Dinophysis-Arten sowie Umweltfaktoren als entscheidende Prädiktoren für Durchfallauslösende Muschelvergiftungen (DSP).

Martin Marzidovšek, Janja Francé, Vid Podpečan + 3 more2026-03-12🤖 cs.AI

Mamba Neural Operator: Who Wins? Transformers vs. State-Space Models for PDEs

Die vorgestellte Arbeit führt den Mamba Neural Operator (MNO) ein, ein neuartiges Framework, das strukturierte State-Space-Modelle mit neuronalen Operatoren verbindet und sich als überlegene Alternative zu Transformern für die effiziente und präzise Lösung von partiellen Differentialgleichungen erweist.

Chun-Wun Cheng, Jiahao Huang, Yi Zhang, Guang Yang, Carola-Bibiane Schönlieb, Angelica I. Aviles-Rivero2026-03-12🤖 cs.LG

Losing dimensions: Geometric memorization in generative diffusion

Die Studie zeigt, dass Diffusionsmodelle bei knappen Daten nicht abrupt, sondern durch einen allmählichen geometrischen Zusammenbruch ihrer latenten Dimensionalität memorieren, bei dem zunächst markante Merkmale und dann feinere Details eingefroren werden, was zu einer Phase zwischen Generalisierung und exakter Kopie führt.

Beatrice Achilli, Enrico Ventura, Gianluigi Silvestri, Bao Pham, Gabriel Raya, Dmitry Krotov, Carlo Lucibello, Luca Ambrogioni2026-03-12📊 stat

Enhancing Brain Source Reconstruction by Initializing 3D Neural Networks with Physical Inverse Solutions

Die Studie stellt 3D-PIUNet vor, eine hybride Methode zur EEG-Quellenlokalisation, die physikalische Inverslösungen zur Initialisierung mit einem 3D-Convolutional-U-Net kombiniert, um die räumliche Genauigkeit der Gehirnquellen-Rekonstruktion sowohl bei simulierten als auch bei realen Daten signifikant zu verbessern.

Marco Morik, Ali Hashemi, Klaus-Robert Müller, Stefan Haufe, Shinichi Nakajima2026-03-12⚡ eess

Class Incremental Learning with Task-Specific Batch Normalization and Out-of-Distribution Detection

Diese Studie stellt ein neuartiges Framework für das kontinuierliche Lernen vor, das durch die Einführung von task-spezifischer Batch-Normalisierung und eine Vorhersage der Task-ID mittels Out-of-Distribution-Detektion das katastrophale Vergessen in der klassenbasierten inkrementellen Lernumgebung effektiv reduziert.

Zhiping Zhou, Xuchen Xie, Yiqiao Qiu, Run Lin, Weishi Zheng, Ruixuan Wang2026-03-12🤖 cs.LG

Conditional Local Importance by Quantile Expectations

Die Arbeit stellt CLIQUE vor, eine neue modellunabhängige Methode zur Berechnung der lokalen Variablenwichtigkeit, die im Gegensatz zu etablierten Verfahren wie LIME und SHAP lokale Abhängigkeiten und Interaktionen erfasst, insbesondere bei Mehrklassen-Klassifikationsproblemen, und Verzerrungen in Bereichen reduziert, in denen Variablen keinen Einfluss auf die Antwort haben.

Kelvyn K. Bladen, Adele Cutler, D. Richard Cutler, Kevin R. Moon2026-03-12📊 stat

Graph machine learning for flight delay prediction due to holding manouver

Diese Studie nutzt Graph-Machine-Learning-Techniken, um Flugverspätungen durch Warteschleifen vorherzusagen, wobei ein CatBoost-Modell, das durch Graph-Features angereichert ist, im Vergleich zu Graph Attention Networks (GATs) bessere Ergebnisse auf einer unausgeglichenen Datensatz liefert und die Grundlage für ein webbasiertes Echtzeit-Vorhersagewerkzeug bildet.

Jorge L. Franco, Manoel V. Machado Neto, Filipe A. N. Verri + 1 more2026-03-12🤖 cs.LG