Learning Transferable Sensor Models via Language-Informed Pretraining

Die Arbeit stellt SLIP vor, ein Open-Source-Framework für das vortrainierte Lernen sprachbasieter Sensorrepräsentationen, das durch kontrastives Alignment und sensorbedingte Bildunterschriften eine überlegene semantische Generalisierung und flexible Anpassung an verschiedene Sensor-Konfigurationen ermöglicht.

Yuliang Chen, Arvind Pillai, Yu Yvonne Wu, Tess Z. Griffin, Lisa Marsch, Michael V. Heinz, Nicholas C. Jacobson, Andrew Campbell2026-03-13🤖 cs.AI

Uncovering Locally Low-dimensional Structure in Networks by Locally Optimal Spectral Embedding

Die Arbeit stellt die Lokale Adjazenz-Spektraleinbettung (LASE) vor, eine Methode, die durch gewichtete spektrale Zerlegung lokale, niedrigdimensionale Strukturen in Netzwerken aufdeckt und damit die Einschränkungen globaler Einbettungen überwindet, um sowohl die lokale Rekonstruktion als auch die globale Visualisierung zu verbessern.

Hannah Sansford, Nick Whiteley, Patrick Rubin-Delanchy2026-03-13📊 stat

Statistical and structural identifiability in representation learning

Die Arbeit formalisiert die Stabilität von Repräsentationslernmodellen als statistische und strukturelle Identifizierbarkeit, beweist deren ϵ\epsilon-nahe Identifizierbarkeit für eine breite Klasse von Modellen und zeigt, dass eine nachgeschaltete Independent Component Analysis (ICA) diese Repräsentationen effektiv entwirrt, um sowohl synthetische als auch biologische Anwendungen zu verbessern.

Walter Nelson, Marco Fumero, Theofanis Karaletsos, Francesco Locatello2026-03-13🤖 cs.LG

On-Average Stability of Multipass Preconditioned SGD and Effective Dimension

Diese Arbeit entwickelt eine neue Stabilitätsanalyse für multipass Preconditioned SGD, die zeigt, wie die Wechselwirkung zwischen der Krümmung des Populationsrisikos und der Gradientenrauschen-Geometrie die Generalisierungsfähigkeit über die effektive Dimension bestimmt, und liefert dazu sowohl obere Schranken als auch passende untere Schranken.

Simon Vary, Tyler Farghly, Ilja Kuzborskij, Patrick Rebeschini2026-03-13📊 stat

BTZSC: A Benchmark for Zero-Shot Text Classification Across Cross-Encoders, Embedding Models, Rerankers and LLMs

Die Arbeit stellt BTZSC vor, ein umfassendes Benchmark für das Zero-Shot-Textklassifizieren, das zeigt, dass moderne Reranker wie Qwen3-Reranker-8B den aktuellen State-of-the-Art erreichen, während starke Embedding-Modelle und Instruktion-tuned LLMs ebenfalls wettbewerbsfähige Ergebnisse liefern und die Grenzen früherer NLI-basierter Ansätze überwinden.

Ilias Aarab2026-03-13💬 cs.CL

Decentralized Orchestration Architecture for Fluid Computing: A Secure Distributed AI Use Case

Diese Arbeit stellt eine dezentrale Orchestrierungsarchitektur für Fluid Computing vor, die durch die Nutzung domänenspezifischer Fähigkeiten und eines SDN-basierten Anomalieerkennungsmechanismus (FU-HST) eine sichere, mehrdomänige Verteilung von Federated Learning unter Byzantinischen Bedrohungen ermöglicht.

Diego Cajaraville-Aboy, Ana Fernández-Vilas, Rebeca P. Díaz-Redondo, Manuel Fernández-Veiga, Pablo Picallo-López2026-03-13🤖 cs.LG

Deep Learning-Based Metamodeling of Nonlinear Stochastic Dynamic Systems under Parametric and Predictive Uncertainty

Die Studie stellt drei Deep-Learning-basierte Metamodellierungsrahmen vor, die durch die Kombination von Merkmalsextraktionsmodulen (MLP, MPNN oder Autoencoder) mit LSTM-Netzen und Monte-Carlo-Dropout erfolgreich nichtlineare, stochastische dynamische Systeme unter simultaner Berücksichtigung von Parameter- und Vorhersageunsicherheiten modellieren und dabei sowohl für einfache als auch komplexe Bauwerksmodelle präzise Ergebnisse mit zuverlässigen Unsicherheitsquantifizierungen liefern.

Haimiti Atila, Seymour M. J. Spence2026-03-13🤖 cs.LG

AGMARL-DKS: An Adaptive Graph-Enhanced Multi-Agent Reinforcement Learning for Dynamic Kubernetes Scheduling

Die Studie stellt AGMARL-DKS vor, einen adaptiven, graphenbasierten Multi-Agenten-Verstärkungslern-Scheduler für Kubernetes, der durch dezentrale Ausführung, globale Kontextmodellierung mittels Graph Neural Networks und stressbewusste lexikografische Priorisierung die Skalierbarkeit, Fehlertoleranz und Ressourcennutzung im Vergleich zu herkömmlichen Ansätzen signifikant verbessert.

Hamed Hamzeh2026-03-13🤖 cs.LG

Frequentist Consistency of Prior-Data Fitted Networks for Causal Inference

Diese Arbeit zeigt, dass Prior-Data-Fitted-Networks (PFNs) für kausale Inferenz ohne Korrektur zu einer durch den Prior verursachten Verzerrung führen, und schlägt eine Kalibrierung mittels einer einstufigen Posterior-Korrektur (OSPC) auf Basis von Martingal-Posterior-Verteilungen vor, um die frequentistische Konsistenz und eine korrekte Unsicherheitsquantifizierung für den durchschnittlichen Behandlungseffekt (ATE) wiederherzustellen.

Valentyn Melnychuk, Vahid Balazadeh, Stefan Feuerriegel, Rahul G. Krishnan2026-03-13🤖 cs.LG

Continual Learning with Vision-Language Models via Semantic-Geometry Preservation

Die Arbeit stellt SeGP-CL vor, eine exemplarfreie Methode zum kontinuierlichen Lernen von Vision-Language-Modellen, die durch die Erhaltung der semantisch-geometrischen Struktur mittels adversarischer Anker und geometrischer Distillation katastrophales Vergessen verhindert und gleichzeitig die Stabilität sowie den Vorwärts-Transfer verbessert.

Chiyuan He, Zihuan Qiu, Fanman Meng, Runtong Zhang, Linfeng Xu, Qingbo Wu, Hongliang Li2026-03-13🤖 cs.LG

Cross-Domain Policy Optimization via Bellman Consistency and Hybrid Critics

Die Arbeit stellt QAvatar vor, einen hybriden Kritiker, der durch die Einführung der Bellman-Konsistenz über Domänen hinweg die Daten-effizienz im Cross-Domain-Reinforcement-Learning verbessert, indem er Quell- und Ziel-Q-Funktionen adaptiv kombiniert, um negative Übertragungseffekte zu vermeiden und eine zuverlässige Wissensübertragung in verschiedenen Robotik-Aufgaben zu gewährleisten.

Ming-Hong Chen, Kuan-Chen Pan, You-De Huang, Xi Liu, Ping-Chun Hsieh2026-03-13🤖 cs.LG

Wasserstein Gradient Flows for Batch Bayesian Optimal Experimental Design

Diese Arbeit stellt einen neuen Ansatz für das Batch-Bayes'sche Optimal-Experiment-Design vor, der das Optimierungsproblem durch eine probabilistische Hebung in den Raum der Wahrscheinlichkeitsmaße transformiert und unter Verwendung von Wasserstein-Gradientenflüssen skalierbare, partikelbasierte Algorithmen entwickelt, um hochdimensionale und nicht-konvexe Nutzenfunktionen effizient zu optimieren.

Louis Sharrock2026-03-13📊 stat