Stochastic Port-Hamiltonian Neural Networks: Universal Approximation with Passivity Guarantees

Die Arbeit stellt stochastische Port-Hamiltonsche neuronale Netze (SPH-NNs) vor, die durch die Parametrisierung der Hamilton-Funktion und die Erhaltung passivitätskonformer Strukturen eine universelle Approximation mit garantierten Passivitätseigenschaften ermöglichen und in Experimenten gegenüber herkömmlichen MLPs überlegene Langzeitvorhersagen sowie geringere Energiefehler aufweisen.

Luca Di Persio, Matthias Ehrhardt, Youness Outaleb2026-03-12🤖 cs.LG

KernelSkill: A Multi-Agent Framework for GPU Kernel Optimization

Das Paper stellt KernelSkill vor, ein Multi-Agenten-Framework mit einer dualen Speicherarchitektur, das durch die Nutzung von wissensbasierten Expertenfähigkeiten anstelle impliziter Heuristiken GPU-Kernel-Optimierungen effizienter und interpretierbarer gestaltet und dabei auf dem KernelBench signifikante Geschwindigkeitssteigerungen erzielt.

Qitong Sun, Jun Han, Tianlin Li, Zhe Tang, Sheng Chen, Fei Yang, Aishan Liu, Xianglong Liu, Yang Liu2026-03-12🤖 cs.LG

A Survey of Weight Space Learning: Understanding, Representation, and Generation

Diese Arbeit stellt eine umfassende Übersicht über das neuartige Forschungsfeld des Weight Space Learning vor, das neuronale Gewichte als strukturierten Lernraum betrachtet und Methoden zur Analyse, Repräsentation und Generierung von Gewichten systematisch kategorisiert, um Anwendungen wie Modellwiedergewinnung und datenfreie Rekonstruktion zu ermöglichen.

Xiaolong Han, Zehong Wang, Bo Zhao, Binchi Zhang, Jundong Li, Damian Borth, Rose Yu, Haggai Maron, Yanfang Ye, Lu Yin, Ferrante Neri2026-03-12🤖 cs.LG

Equivariant Asynchronous Diffusion: An Adaptive Denoising Schedule for Accelerated Molecular Conformation Generation

Die Arbeit stellt Equivariant Asynchronous Diffusion (EAD) vor, ein neues Diffusionsmodell, das durch einen adaptiven, asynchronen Denoising-Plan die Hierarchie molekularer Strukturen besser erfasst und gleichzeitig einen molekülweiten Horizont bewahrt, um den Stand der Technik bei der Generierung 3D-molekularer Konformationen zu erreichen.

Junyi An, Chao Qu, Yun-Fei Shi, Zhijian Zhou, Fenglei Cao, Yuan Qi2026-03-12🧬 q-bio

CLIPO: Contrastive Learning in Policy Optimization Generalizes RLVR

Das Papier stellt CLIPO vor, eine Methode zur Verallgemeinerung von Reinforcement Learning mit verifizierbaren Belohnungen (RLVR) durch kontrastives Lernen, die die Robustheit und Generalisierungsfähigkeit von Large Language Models verbessert, indem sie inkonsistente Zwischenschritte in korrekten Lösungswegen erkennt und Halluzinationen unterdrückt.

Sijia Cui, Pengyu Cheng, Jiajun Song, Yongbo Gai, Guojun Zhang, Zhechao Yu, Jianhe Lin, Xiaoxi Jiang, Guanjun Jiang2026-03-12🤖 cs.LG

Unbalanced Optimal Transport Dictionary Learning for Unsupervised Hyperspectral Image Clustering

Dieses Papier schlägt eine Methode zur unüberwachten Hyperspektralbild-Clustering vor, die unbalancierte Wasserstein-Baryzentren nutzt, um eine robuste, niedrigdimensionale Darstellung zu lernen und so die Nachteile herkömmlicher ausbalancierter Ansätze wie Klassenverwischung und Empfindlichkeit gegenüber Ausreißern zu überwinden.

Joshua Lentz, Nicholas Karris, Alex Cloninger, James M. Murphy2026-03-12📊 stat

ReMix: Reinforcement routing for mixtures of LoRAs in LLM finetuning

Die Arbeit stellt ReMix vor, einen neuartigen Router für Mixture-of-LoRAs, der durch den Einsatz nicht-lernbarer Routing-Gewichte und einer auf Reinforcement Learning basierenden RLOO-Gradientenschätzung das Problem der unausgewogenen LoRA-Nutzung löst und damit die Leistungsfähigkeit beim Fine-Tuning von LLMs signifikant verbessert.

Ruizhong Qiu, Hanqing Zeng, Yinglong Xia, Yiwen Meng, Ren Chen, Jiarui Feng, Dongqi Fu, Qifan Wang, Jiayi Liu, Jun Xiao, Xiangjun Fan, Benyu Zhang, Hong Li, Zhining Liu, Hyunsik Yoo, Zhichen Zeng, Tianxin Wei, Hanghang Tong2026-03-12🤖 cs.LG