Multi-Station WiFi CSI Sensing Framework Robust to Station-wise Feature Missingness and Limited Labeled Data

Die Autoren stellen ein robustes Framework für das WiFi-CSI-Sensing in Mehrstationsumgebungen vor, das durch die Kombination von cross-modalem selbstüberwachtem Lernen und stationsspezifischer Maskierungs-Augmentierung effektiv mit sowohl fehlenden Stationsdaten als auch einem Mangel an gelabelten Daten umgeht.

Keita Kayano, Takayuki Nishio, Daiki Yoda, Yuta Hirai, Tomoko Adachi2026-03-13🤖 cs.LG

FlexRec: Adapting LLM-based Recommenders for Flexible Needs via Reinforcement Learning

Das Papier stellt FlexRec vor, ein Framework zur Nachschulung von LLM-basierten Empfehlungssystemen mittels verstärkendem Lernen, das durch kausal fundierte, item-level Belohnungen und eine unsicherheitsbewusste Skalierung des Kritikers die Herausforderungen von grober Kreditvergabe und spärlichen Feedbacks adressiert, um eine flexible Anpassung an dynamische Nutzerbedürfnisse zu ermöglichen und dabei signifikante Verbesserungen bei den Ranking-Metriken zu erzielen.

Yijun Pan, Weikang Qiu, Qiyao Ma, Mingxuan Ju, Tong Zhao, Neil Shah, Rex Ying2026-03-13🤖 cs.LG

Chem4DLLM: 4D Multimodal LLMs for Chemical Dynamics Understanding

Die Arbeit stellt Chem4DLLM vor, ein multimodales Large Language Model, das zusammen mit dem neuen Datensatz Chem4DBench und der Aufgabe ChemDU entwickelt wurde, um statische Molekülrepräsentationen zu überwinden und chemische Dynamikprozesse wie Bindungsbrüche durch die Analyse von 4D-Trajektorien in interpretierbare natürliche Sprache zu übersetzen.

Xinyu Li, Zhen Zhang, Qi Chen, Anton van den Hengel, Lina Yao, Javen Qinfeng Shi2026-03-13💬 cs.CL

MobileKernelBench: Can LLMs Write Efficient Kernels for Mobile Devices?

Die Studie stellt MobileKernelBench vor, ein Benchmark-Framework zur Bewertung der Fähigkeit von LLMs, effiziente Kernel für mobile Geräte zu generieren, und zeigt, dass das neu entwickelte Multi-Agenten-System MoKA die bisherigen Grenzen durch eine signifikant höhere Kompilierungserfolgsrate und messbare Geschwindigkeitssteigerungen überwindet.

Xingze Zou, Jing Wang, Yuhua Zheng, Xueyi Chen, Haolei Bai, Lingcheng Kong, Syed A. R. Abu-Bakar, Zhaode Wang, Chengfei Lv, Haoji Hu, Huan Wang2026-03-13🤖 cs.LG

Exhaustive Circuit Mapping of a Single-Cell Foundation Model Reveals Massive Redundancy, Heavy-Tailed Hub Architecture, and Layer-Dependent Differentiation Control

Diese Studie nutzt exhaustives Circuit-Mapping am Einzelzell-Modell Geneformer, um massive Redundanz, eine schwer-tailige Hub-Architektur und eine kausale, schichtabhängige Steuerung der Zelldifferenzierung nachzuweisen, wodurch systematische Verzerrungen früherer selektiver Analysen aufgedeckt werden.

Ihor Kendiukhov2026-03-13🤖 cs.LG

Causal Matrix Completion under Multiple Treatments via Mixed Synthetic Nearest Neighbors

Die Arbeit stellt Mixed Synthetic Nearest Neighbors (MSNN) vor, einen neuen Schätzer für die kausale Matrixvollendung unter mehreren Behandlungen, der durch die Integration von Informationen über verschiedene Behandlungslevel hinweg die Effizienz von Synthetic Nearest Neighbors (SNN) auch bei datenarmen Szenarien verbessert, ohne dabei dessen theoretische Garantien zu beeinträchtigen.

Minrui Luo, Zhiheng Zhang2026-03-13🤖 cs.LG

Effective Resistance Rewiring: A Simple Topological Correction for Over-Squashing

Die Arbeit stellt Effective Resistance Rewiring (ERR) vor, eine parametrisfreie Topologie-Korrekturmethode, die globale Widerstandssignale nutzt, um strukturelle Engpässe in Graph Neural Networks zu identifizieren und durch gezieltes Hinzufügen sowie Entfernen von Kanten das Over-Squashing zu mildern, wobei die Kombination mit Normalisierungstechniken wie PairNorm den Trade-off zwischen verbesserter Signalpropagation und Oversmoothing effektiv ausbalanciert.

Bertran Miquel-Oliver, Manel Gil-Sorribes, Victor Guallar, Alexis Molina2026-03-13🤖 cs.LG

Learning Transferable Sensor Models via Language-Informed Pretraining

Die Arbeit stellt SLIP vor, ein Open-Source-Framework für das vortrainierte Lernen sprachbasieter Sensorrepräsentationen, das durch kontrastives Alignment und sensorbedingte Bildunterschriften eine überlegene semantische Generalisierung und flexible Anpassung an verschiedene Sensor-Konfigurationen ermöglicht.

Yuliang Chen, Arvind Pillai, Yu Yvonne Wu, Tess Z. Griffin, Lisa Marsch, Michael V. Heinz, Nicholas C. Jacobson, Andrew Campbell2026-03-13🤖 cs.AI

Uncovering Locally Low-dimensional Structure in Networks by Locally Optimal Spectral Embedding

Die Arbeit stellt die Lokale Adjazenz-Spektraleinbettung (LASE) vor, eine Methode, die durch gewichtete spektrale Zerlegung lokale, niedrigdimensionale Strukturen in Netzwerken aufdeckt und damit die Einschränkungen globaler Einbettungen überwindet, um sowohl die lokale Rekonstruktion als auch die globale Visualisierung zu verbessern.

Hannah Sansford, Nick Whiteley, Patrick Rubin-Delanchy2026-03-13📊 stat

Statistical and structural identifiability in representation learning

Die Arbeit formalisiert die Stabilität von Repräsentationslernmodellen als statistische und strukturelle Identifizierbarkeit, beweist deren ϵ\epsilon-nahe Identifizierbarkeit für eine breite Klasse von Modellen und zeigt, dass eine nachgeschaltete Independent Component Analysis (ICA) diese Repräsentationen effektiv entwirrt, um sowohl synthetische als auch biologische Anwendungen zu verbessern.

Walter Nelson, Marco Fumero, Theofanis Karaletsos, Francesco Locatello2026-03-13🤖 cs.LG

On-Average Stability of Multipass Preconditioned SGD and Effective Dimension

Diese Arbeit entwickelt eine neue Stabilitätsanalyse für multipass Preconditioned SGD, die zeigt, wie die Wechselwirkung zwischen der Krümmung des Populationsrisikos und der Gradientenrauschen-Geometrie die Generalisierungsfähigkeit über die effektive Dimension bestimmt, und liefert dazu sowohl obere Schranken als auch passende untere Schranken.

Simon Vary, Tyler Farghly, Ilja Kuzborskij, Patrick Rebeschini2026-03-13📊 stat

BTZSC: A Benchmark for Zero-Shot Text Classification Across Cross-Encoders, Embedding Models, Rerankers and LLMs

Die Arbeit stellt BTZSC vor, ein umfassendes Benchmark für das Zero-Shot-Textklassifizieren, das zeigt, dass moderne Reranker wie Qwen3-Reranker-8B den aktuellen State-of-the-Art erreichen, während starke Embedding-Modelle und Instruktion-tuned LLMs ebenfalls wettbewerbsfähige Ergebnisse liefern und die Grenzen früherer NLI-basierter Ansätze überwinden.

Ilias Aarab2026-03-13💬 cs.CL

Decentralized Orchestration Architecture for Fluid Computing: A Secure Distributed AI Use Case

Diese Arbeit stellt eine dezentrale Orchestrierungsarchitektur für Fluid Computing vor, die durch die Nutzung domänenspezifischer Fähigkeiten und eines SDN-basierten Anomalieerkennungsmechanismus (FU-HST) eine sichere, mehrdomänige Verteilung von Federated Learning unter Byzantinischen Bedrohungen ermöglicht.

Diego Cajaraville-Aboy, Ana Fernández-Vilas, Rebeca P. Díaz-Redondo, Manuel Fernández-Veiga, Pablo Picallo-López2026-03-13🤖 cs.LG