CAPS: Context-Aware Priority Sampling for Enhanced Imitation Learning in Autonomous Driving

Dit paper introduceert CAPS, een nieuwe methode die Vector Quantized Variational Autoencoders gebruikt om onbalans in imitatieleer voor autonoom rijden aan te pakken door zeldzame maar waardevolle data-prioriteit te geven, wat leidt tot aanzienlijke verbeteringen in de prestaties en generalisatie van het model.

Hamidreza Mirkhani, Behzad Khamidehi, Ehsan Ahmadi, Mohammed Elmahgiubi, Weize Zhang, Fazel Arasteh, Umar Rajguru, Kasra Rezaee, Dongfeng Bai2026-03-09🤖 cs.LG

From Tokenizer Bias to Backbone Capability: A Controlled Study of LLMs for Time Series Forecasting

Deze studie onthult dat de schijnbare effectiviteit van grote taalmodellen (LLM's) voor tijdreeksvoorspelling vaak wordt veroorzaakt door overfitting in de tokenisatie-laag in plaats van de modelcapaciteit zelf, en concludeert dat deze modellen, zelfs met geoptimaliseerde vooropleiding, niet consequent beter presteren dan modellen die specifiek zijn getraind op grote tijdreeksdatasets.

Xinyu Zhang, Shanshan Feng, Xutao Li, Kenghong Lin, Fan Li, Pengfei Jia2026-03-09🤖 cs.AI

FourierSpecNet: Neural Collision Operator Approximation Inspired by the Fourier Spectral Method for Solving the Boltzmann Equation

In dit artikel wordt FourierSpecNet voorgesteld, een hybride deep-learningframework dat de Fourier-spectrale methode integreert om de complexe botsingsoperator van de Boltzmann-vergelijking efficiënt en nauwkeurig te benaderen, waardoor de rekentijd aanzienlijk wordt verkort zonder in te leveren op de precisie voor zowel elastische als inelastische botsingen.

Jae Yong Lee, Gwang Jae Jung, Byung Chan Lim, Hyung Ju Hwang2026-03-09🤖 cs.AI

Entropic Mirror Descent for Linear Systems: Polyak's Stepsize and Implicit Bias

Dit artikel introduceert een variant van Polyak-stappenstappen voor entropische spiegelafdaal om lineaire systemen op te lossen zonder restrictieve aannames, waarbij sublineaire en lineaire convergentie wordt bewezen, de impliciete bias in de 1\ell_1-norm wordt versterkt, en een alternatieve, exponentiatieloze methode met bewezen convergentie wordt voorgesteld.

Yura Malitsky, Alexander Posch2026-03-09🤖 cs.LG

ContextBench: Modifying Contexts for Targeted Latent Activation

Dit paper introduceert ContextBench, een benchmark voor het evalueren van methoden die specifieke latenten of gedragingen in taalmodellen activeren via contextmodificatie, en presenteert verbeterde varianten van Evolutionary Prompt Optimisation die een betere balans bereiken tussen activatiekracht en taalkundige vloeiendheid.

Robert Graham, Edward Stevinson, Leo Richter, Alexander Chia, Joseph Miller, Joseph Isaac Bloom2026-03-09🤖 cs.AI

Temporal Misalignment Attacks against Multimodal Perception in Autonomous Driving

Dit paper introduceert 'DejaVu', een aanval die de integriteit van tijdsynchronisatie in multimodale autonome voertuigsystemen manipuleert door subtiel te vertraagde camera- of LiDAR-data, wat leidt tot een drastische verslechtering van objectdetectie en -tracking en ernstige veiligheidsrisico's zoals botsingen en phantom braking veroorzaakt.

Md Hasan Shahriar, Md Mohaimin Al Barat, Harshavardhan Sundar, Ning Zhang, Naren Ramakrishnan, Y. Thomas Hou, Wenjing Lou2026-03-09🤖 cs.LG

Characterizing Evolution in Expectation-Maximization Estimates for Overspecified Mixed Linear Regression

Dit artikel biedt een theoretisch inzicht in het gedrag van het Expectation-Maximization-algoritme bij overspecifieerde twee-componenten gemengde lineaire regressie, waarbij wordt aangetoond dat de convergentiesnelheid en statistische nauwkeurigheid sterk afhankelijk zijn van de initiële balans van de menggewichten, met lineaire convergentie en optimale nauwkeurigheid bij onbalans versus sublineaire convergentie en verminderde nauwkeurigheid bij balans.

Zhankun Luo, Abolfazl Hashemi2026-03-09🤖 cs.LG