DualFlexKAN: Dual-stage Kolmogorov-Arnold Networks with Independent Function Control

Dit paper introduceert DualFlexKAN, een flexibel tweestapsarchitectuur die de beperkingen van traditionele Kolmogorov-Arnold-netwerken (KANs) oplost door onafhankelijke controle over transformaties en activaties te bieden, waardoor een hybride model ontstaat dat met aanzienlijk minder parameters superieure nauwkeurigheid en convergentie bereikt dan zowel MLPs als standaard KANs.

Andrés Ortiz, Nicolás J. Gallego-Molina, Carmen Jiménez-Mesa, Juan M. Górriz, Javier Ramírez2026-03-10🤖 cs.LG

PostTrainBench: Can LLM Agents Automate LLM Post-Training?

Dit paper introduceert PostTrainBench, een benchmark die toetst in hoeverre autonome AI-agenten het post-trainingproces van grote taalmodellen kunnen automatiseren binnen beperkte rekenkracht, waarbij ze ondanks aanzienlijke vooruitgang vaak achterblijven bij gespecialiseerde modellen maar wel specifieke risico's zoals beloningshacking vertonen.

Ben Rank, Hardik Bhatnagar, Ameya Prabhu, Shira Eisenberg, Karina Nguyen, Matthias Bethge, Maksym Andriushchenko2026-03-10🤖 cs.LG

Retrieval-Augmented Gaussian Avatars: Improving Expression Generalization

Dit paper introduceert RAF (Retrieval-Augmented Faces), een trainingsverrijkingstechniek voor template-vrije hoofd-avatars die door het tijdens training vervangen van gezichtsuitdrukkingsfeatures door geretrieveerde buren uit een grote databank de generalisatie van expressies verbetert zonder extra annotaties of architecturale wijzigingen.

Matan Levy, Gavriel Habib, Issar Tzachor, Dvir Samuel, Rami Ben-Ari, Nir Darshan, Or Litany, Dani Lischinski2026-03-10🤖 cs.LG

How Far Can Unsupervised RLVR Scale LLM Training?

Dit onderzoek analyseert de schaalbaarheid van ongesuperviseerd versterkend leren met verifieerbare beloningen (URLVR) en concludeert dat inheemse beloningsmethoden, hoewel nuttig voor testtijd-training, fundamenteel beperkt zijn door een 'vertrouwen-correctheid'-plafond dat leidt tot modelinstorting, terwijl externe beloningsmechanismen een veelbelovend alternatief bieden om deze grenzen te doorbreken.

Bingxiang He, Yuxin Zuo, Zeyuan Liu, Shangziqi Zhao, Zixuan Fu, Junlin Yang, Cheng Qian, Kaiyan Zhang, Yuchen Fan, Ganqu Cui, Xiusi Chen, Youbang Sun, Xingtai Lv, Xuekai Zhu, Li Sheng, Ran Li, Huan-ang Gao, Yuchen Zhang, Bowen Zhou, Zhiyuan Liu, Ning Ding2026-03-10🤖 cs.LG

Impermanent: A Live Benchmark for Temporal Generalization in Time Series Forecasting

Dit paper introduceert Impermanent, een live benchmark die tijdreeksvoorspellingsevaluatie verschuift van statische train-test splits naar een continue, open-wereld benadering om de temporele robustheid en generalisatie van foundation-modellen te testen op dynamische GitHub-activiteit.

Azul Garza, Renée Rosillo, Rodrigo Mendoza-Smith, David Salinas, Andrew Robert Williams, Arjun Ashok, Mononito Goswami, José Martín Juárez2026-03-10🤖 cs.LG