Global Convergence of Iteratively Reweighted Least Squares for Robust Subspace Recovery

Dit artikel bewijst dat een variant van Iteratively Reweighted Least Squares (IRLS) met dynamische regularisatie onder deterministische voorwaarden lineair convergeert naar de onderliggende deelruimte, waarmee voor het eerst globale convergentie wordt gegarandeerd voor IRLS in robuuste subspace recovery en niet-convexe optimalisatie op Riemanniaanse variëteiten.

Gilad Lerman, Kang Li, Tyler Maunu, Teng ZhangWed, 11 Ma🤖 cs.LG

Convergence Rate for the Last Iterate of Stochastic Gradient Descent Schemes

Dit artikel analyseert de convergentiesnelheid van de laatste iteratie van stochastische gradiëntafdaal- en zware-bal-methoden voor convex en niet-convex doelfuncties met γ\gamma-Hölder-gladde gradiënten, en bewijst nieuwe convergentie-resultaten voor zowel de minimale dan wel de laatste iteratie door gebruik te maken van de discrete Gronwall-ongelijkheid in plaats van de Robbins-Siegmund-stelling.

Marcel HudianiWed, 11 Ma🤖 cs.LG

Operator Learning for Consolidation: An Architectural Comparison for DeepONet Variants

Deze studie vergelijkt DeepONet-architecturen voor het consolideringsprobleem in de geotechniek en toont aan dat een Fourier-features-gebaseerde variant (Model 4) niet alleen superieure nauwkeurigheid biedt bij sterk variërende oplossingen, maar ook een snelheidswinst van ongeveer 1.000x in 3D-scenario's mogelijk maakt, wat de weg vrijmaakt voor efficiënte onzekerheidskwantificering.

Yongjin Choi, Chenying Liu, Jorge MacedoWed, 11 Ma🤖 cs.LG

RF-Informed Graph Neural Networks for Accurate and Data-Efficient Circuit Performance Prediction

Dit artikel introduceert een lichtgewicht, data-efficiënt framework op basis van grafische neurale netwerken dat door gebruik te maken van RF-domeinkennis en apparaat-semantiek nauwkeurige prestatievoorspellingen mogelijk maakt voor diverse actieve RF-circuits, met een gemiddelde relatieve fout van 3,45% en een aanzienlijke verbetering in generalisatievermogen ten opzichte van bestaande methoden.

Anahita Asadi, Leonid Popryho, Inna Partin-VaisbandWed, 11 Ma🤖 cs.LG

Iterative In-Context Learning to Enhance LLMs Abstract Reasoning: The Case-Study of Algebraic Tasks

Dit paper introduceert een iteratieve in-context learning-methode met geselecteerde voorbeelden die de generalisatievermogen van grote taalmodellen verbetert bij abstracte algebraïsche taken, waarbij blijkt dat eenvoudigere voorbeelden soms effectiever zijn dan complexere.

Stefano Fioravanti, Matteo Zavatteri, Roberto Confalonieri, Kamyar Zeinalipour, Paolo Frazzetto, Alessandro Sperduti, Nicolò NavarinWed, 11 Ma🤖 cs.LG

A Surrogate model for High Temperature Superconducting Magnets to Predict Current Distribution with Neural Network

Dit artikel introduceert een op een volledig verbonden residual-neuraalnetwerk gebaseerd surrogate-model dat, getraind op FEM-simulaties, de stroomdichtheidsverdeling in REBCO-solenoiden snel en nauwkeurig voorspelt, waardoor de intelligente ontwerpoptimatie van grote hoogtemperatuur-supraconductieve magneten mogelijk wordt gemaakt.

Mianjun Xiao, Peng Song, Yulong Liu, Cedric Korte, Ziyang Xu, Jiale Gao, Jiaqi Lu, Haoyang Nie, Qiantong Deng, Timing QuWed, 11 Ma🤖 cs.LG

Compose Your Policies! Improving Diffusion-based or Flow-based Robot Policies via Test-time Distribution-level Composition

Deze paper introduceert General Policy Composition (GPC), een trainingsvrije methode die de prestaties van bestaande robotbeleidmodellen op basis van diffusie of stroming verbetert door hun distributiescores tijdens de testfase te combineren, zonder dat extra training vereist is.

Jiahang Cao, Yize Huang, Hanzhong Guo, Rui Zhang, Mu Nan, Weijian Mai, Jiaxu Wang, Hao Cheng, Jingkai Sun, Gang Han, Wen Zhao, Qiang Zhang, Yijie Guo, Qihao Zheng, Chunfeng Song, Xiao Li, Ping Luo, Andrew F. LuoWed, 11 Ma🤖 cs.LG