A Surrogate model for High Temperature Superconducting Magnets to Predict Current Distribution with Neural Network

Diese Arbeit stellt ein auf einem residualen neuronalen Netz basierendes Surrogatmodell vor, das die Stromverteilung in REBCO-Solenoiden effizient vorhersagt und damit die zeitaufwendige Optimierung von Hochtemperatursupraleiter-Magneten durch schnelle und präzise Designprozesse ermöglicht.

Mianjun Xiao, Peng Song, Yulong Liu, Cedric Korte, Ziyang Xu, Jiale Gao, Jiaqi Lu, Haoyang Nie, Qiantong Deng, Timing Qu2026-03-11🤖 cs.LG

Repulsive Monte Carlo on the sphere for the sliced Wasserstein distance

Diese Arbeit untersucht und vergleicht verschiedene Monte-Carlo-Quadraturmethoden mit repulsiven Knoten zur effizienten Berechnung des geschnittenen Wasserstein-Abstands auf der Kugel, wobei sie insbesondere die Varianzreduktion durch deterministische Punktprozesse analysiert und für niedrige Dimensionen randomisierte Quasi-Monte-Carlo-Verfahren sowie für hohe Dimensionen den UnifOrtho-Schätzer empfiehlt.

Vladimir Petrovic, Rémi Bardenet, Agnès Desolneux2026-03-11🤖 cs.LG

Robot Control Stack: A Lean Ecosystem for Robot Learning at Scale

Dieses Paper stellt den Robot Control Stack (RCS) vor, ein schlankes und modulares Ökosystem, das speziell entwickelt wurde, um die Forschung im Bereich des Robot Learning mit großen generalistischen Vision-Language-Action-Modellen zu unterstützen und dabei die Lücke zwischen Simulation und realer Welt zu schließen.

Tobias Jülg, Pierre Krack, Seongjin Bien, Yannik Blei, Khaled Gamal, Ken Nakahara, Johannes Hechtl, Roberto Calandra, Wolfram Burgard, Florian Walter2026-03-11🤖 cs.LG

ZeroSiam: An Efficient Asymmetry for Test-Time Entropy Optimization without Collapse

Die Arbeit stellt ZeroSiam vor, eine effiziente asymmetrische Siamese-Architektur, die durch Divergenz-Alignment mit einem Stop-Gradient-Operator das Kollabieren von Modellen während der Testzeit-Entropieoptimierung verhindert und gleichzeitig die Anpassungsfähigkeit und Leistung bei visuellen sowie sprachbasierten Aufgaben verbessert.

Guohao Chen, Shuaicheng Niu, Deyu Chen, Jiahao Yang, Zitian Zhang, Mingkui Tan, Pengcheng Wu, Zhiqi Shen2026-03-11🤖 cs.LG

Compose Your Policies! Improving Diffusion-based or Flow-based Robot Policies via Test-time Distribution-level Composition

Die Arbeit stellt General Policy Composition (GPC) vor, eine trainingsfreie Methode, die durch die testzeitliche konvexe Kombination von Verteilungsscores mehrerer vortrainierter Diffusions- oder Flow-basierter Roboterpolicies deren Leistung über das Niveau der einzelnen Elternmodelle hinaus steigert.

Jiahang Cao, Yize Huang, Hanzhong Guo, Rui Zhang, Mu Nan, Weijian Mai, Jiaxu Wang, Hao Cheng, Jingkai Sun, Gang Han, Wen Zhao, Qiang Zhang, Yijie Guo, Qihao Zheng, Chunfeng Song, Xiao Li, Ping Luo, Andrew F. Luo2026-03-11🤖 cs.LG

Improved Robustness of Deep Reinforcement Learning for Control of Time-Varying Systems by Bounded Extremum Seeking

Diese Arbeit stellt einen hybriden Regler vor, der Deep Reinforcement Learning mit robuster, modellunabhängiger Extremwertregelung kombiniert, um die Leistungsfähigkeit von Steuerungssystemen für nichtlineare, zeitvariierende Prozesse zu verbessern und gleichzeitig deren Robustheit gegenüber schnellen Modelländerungen zu gewährleisten.

Shaifalee Saxena, Alan Williams, Rafael Fierro, Alexander Scheinker2026-03-11🤖 cs.LG

Latent Speech-Text Transformer

Das Paper stellt den Latent Speech-Text Transformer (LST) vor, der durch die Aggregation von Sprach-Token zu latenten Patches die Sequenzlängen von Sprache und Text angleicht, was sowohl die Recheneffizienz als auch die Leistung in Sprach- und Textaufgaben im Vergleich zu herkömmlichen autoregressiven Modellen signifikant verbessert.

Yen-Ju Lu, Yashesh Gaur, Wei Zhou, Benjamin Muller, Jesus Villalba, Najim Dehak, Luke Zettlemoyer, Gargi Ghosh, Mike Lewis, Srinivasan Iyer, Duc Le2026-03-11🤖 cs.AI

AlphaApollo: A System for Deep Agentic Reasoning

Das Paper stellt AlphaApollo vor, ein System für tiefes agentices Denken, das durch die Orchestrierung von Modellen und Tools mittels mehrstufiger agenter Reasoning-, Lern- und Evolutionsmechanismen die Leistung von Foundation-Modellen bei komplexen mathematischen Aufgaben signifikant verbessert.

Zhanke Zhou, Chentao Cao, Xiao Feng, Xuan Li, Zongze Li, Xiangyu Lu, Jiangchao Yao, Weikai Huang, Tian Cheng, Jianghangfan Zhang, Tangyu Jiang, Linrui Xu, Yiming Zheng, Brando Miranda, Tongliang Liu, Sanmi Koyejo, Masashi Sugiyama, Bo Han2026-03-11🤖 cs.AI

Exploring Single Domain Generalization of LiDAR-based Semantic Segmentation under Imperfect Labels

Die Arbeit stellt das neue Forschungsgebiet der Domänengeneralisierung für LiDAR-basierte semantische Segmentierung unter verrauschten Labels vor, führt einen Benchmark ein und schlägt mit DuNe ein dual-sichtiges Framework vor, das durch konsistente Feature-Lernung und konfidenzbasiertes Filtern robuste Ergebnisse unter Domänenverschiebungen und Labelrauschen erzielt.

Weitong Kong, Zichao Zeng, Di Wen, Jiale Wei, Kunyu Peng, June Moh Goo, Jan Boehm, Rainer Stiefelhagen2026-03-11🤖 cs.LG

RL-100: Performant Robotic Manipulation with Real-World Reinforcement Learning

Das Paper stellt RL-100 vor, ein leistungsfähiges Reinforcement-Learning-Framework für Roboter, das durch die Kombination von Diffusion-Policies mit PPO und Konsistenz-Distillation in acht realen Aufgaben eine 100-prozentige Erfolgsrate erzielt und dabei menschliche Operateure in Geschwindigkeit und Robustheit übertrifft.

Kun Lei, Huanyu Li, Dongjie Yu, Zhenyu Wei, Lingxiao Guo, Zhennan Jiang, Ziyu Wang, Shiyu Liang, Huazhe Xu2026-03-11🤖 cs.AI

Bradley-Terry Policy Optimization for Generative Preference Modeling

Die Arbeit stellt Bradley-Terry Policy Optimization (BTPO) vor, einen neuartigen Optimierungsansatz, der durch die Ableitung eines konsistenten Monte-Carlo-Schätzers für den Gradienten der Likelihood-Funktion das Training von generativen Präferenzmodellen mit Chain-of-Thought-Verständnis für nicht-verifizierbare Aufgaben ermöglicht und dabei bestehende heuristische Methoden übertrifft.

Shengyu Feng, Yun He, Shuang Ma, Beibin Li, Yuanhao Xiong, Songlin Li, Karishma Mandyam, Julian Katz-Samuels, Shengjie Bi, Licheng Yu, Hejia Zhang, Karthik Abinav Sankararaman, Han Fang, Yiming Yang, Manaal Faruqui2026-03-11🤖 cs.LG

Personalized Collaborative Learning with Affinity-Based Variance Reduction

Die Arbeit stellt AffPCL vor, einen personalisierten kollaborativen Lernrahmen für heterogene Agenten, der durch affinitätsbasierte Varianzreduktion und Korrekturmechanismen die Stichprobenkomplexität im Vergleich zum unabhängigen Lernen um einen Faktor von max{n1,δ}\max\{n^{-1}, \delta\} senkt und dabei nahtlos zwischen linearem Speedup bei Homogenität und unabhängiger Lernleistung bei Heterogenität interpoliert, ohne dass Vorwissen über das System erforderlich ist.

Chenyu Zhang, Navid Azizan2026-03-11🤖 cs.LG

From Spatial to Actions: Grounding Vision-Language-Action Model in Spatial Foundation Priors

Die Arbeit stellt FALCON vor, ein neues Paradigma für Vision-Language-Action-Modelle, das durch die Integration von räumlichen Grundwissen aus 3D-Spatial-Foundation-Modellen in den Aktionskopf die Lücke zwischen 2D-Vision und 3D-Aktion schließt und damit in Simulationen sowie realen Umgebungen neue Maßstäbe in Bezug auf Generalisierung und Robustheit setzt.

Zhengshen Zhang, Hao Li, Yalun Dai, Zhengbang Zhu, Lei Zhou, Chenchen Liu, Dong Wang, Francis E. H. Tay, Sijin Chen, Ziwei Liu, Yuxiao Liu, Xinghang Li, Pan Zhou2026-03-11🤖 cs.AI