ContextBench: Modifying Contexts for Targeted Latent Activation

Dit paper introduceert ContextBench, een benchmark voor het evalueren van methoden die specifieke latenten of gedragingen in taalmodellen activeren via contextmodificatie, en presenteert verbeterde varianten van Evolutionary Prompt Optimisation die een betere balans bereiken tussen activatiekracht en taalkundige vloeiendheid.

Robert Graham, Edward Stevinson, Leo Richter, Alexander Chia, Joseph Miller, Joseph Isaac Bloom2026-03-09🤖 cs.AI

Temporal Misalignment Attacks against Multimodal Perception in Autonomous Driving

Dit paper introduceert 'DejaVu', een aanval die de integriteit van tijdsynchronisatie in multimodale autonome voertuigsystemen manipuleert door subtiel te vertraagde camera- of LiDAR-data, wat leidt tot een drastische verslechtering van objectdetectie en -tracking en ernstige veiligheidsrisico's zoals botsingen en phantom braking veroorzaakt.

Md Hasan Shahriar, Md Mohaimin Al Barat, Harshavardhan Sundar, Ning Zhang, Naren Ramakrishnan, Y. Thomas Hou, Wenjing Lou2026-03-09🤖 cs.LG

Characterizing Evolution in Expectation-Maximization Estimates for Overspecified Mixed Linear Regression

Dit artikel biedt een theoretisch inzicht in het gedrag van het Expectation-Maximization-algoritme bij overspecifieerde twee-componenten gemengde lineaire regressie, waarbij wordt aangetoond dat de convergentiesnelheid en statistische nauwkeurigheid sterk afhankelijk zijn van de initiële balans van de menggewichten, met lineaire convergentie en optimale nauwkeurigheid bij onbalans versus sublineaire convergentie en verminderde nauwkeurigheid bij balans.

Zhankun Luo, Abolfazl Hashemi2026-03-09🤖 cs.LG

One Model for All Tasks: Leveraging Efficient World Models in Multi-Task Planning

Het artikel introduceert ScaleZero, een efficiënt wereldmodel dat door middel van een Mixture-of-Experts-architectuur en een dynamische parameter-schaalstrategie (DPS) gradientconflicten oplost en met slechts 71,5% van de interacties prestaties bereikt die vergelijkbaar zijn met gespecialiseerde single-task agents voor heterogene multi-task planning.

Yuan Pu, Yazhe Niu, Jia Tang, Junyu Xiong, Shuai Hu, Hongsheng Li2026-03-09🤖 cs.LG

VEGA: Electric Vehicle Navigation Agent via Physics-Informed Neural Operator and Proximal Policy Optimization

Dit artikel introduceert VEGA, een systeem voor elektrische voertuigen dat een fysica-informeerde neurale operator combineert met Proximal Policy Optimization om energie-efficiënte routes en laadstops te plannen, wat resulteert in een snellere en generaliseerbare navigatie dan bestaande methoden.

Hansol Lim, Minhyeok Im, Jonathan Boyack, Jee Won Lee, Jongseong Brad Choi2026-03-09🤖 cs.LG

Spectral/Spatial Tensor Atomic Cluster Expansion with Universal Embeddings in Cartesian Space

Deze paper introduceert TACE, een nieuw model voor atomaire machine learning dat de complexiteit van sferische-tensorrepresentaties omzeilt door lokale omgevingen te ontleden in irreducibele Cartesische tensoren, waardoor het nauwkeurige en stabiele voorspellingen mogelijk maakt voor zowel scalaire als tensoriële observabelen in moleculen en materialen.

Zemin Xu, Wenbo Xie, P. Hu2026-03-09🔬 cond-mat.mtrl-sci

Auto-Regressive U-Net for Full-Field Prediction of Shrinkage-Induced Damage in Concrete

Dit artikel introduceert een auto-regressieve U-Net-architectuur die de tijdsafhankelijke schadeontwikkeling in beton op basis van microstructurele geometrie en krimpvoorspellingen efficiënt voorspelt, waardoor inzicht wordt verkregen in de relatie tussen aggregaat eigenschappen en mechanische prestaties voor het optimaliseren van betonsamenstellingen.

Liya Gaynutdinova, Petr Havlásek, Ondřej Rokoš, Fleur Hendriks, Martin Doškář2026-03-09🤖 cs.LG

Planner Aware Path Learning in Diffusion Language Models Training

Deze paper introduceert Planner Aware Path Learning (PAPL), een nieuwe trainingsmethode voor diffusie-taalmodellen die de discrepantie tussen training en planning-gebaseerde inferentie oplost door een aangepaste P-ELBO te gebruiken, wat leidt tot aanzienlijke prestatieverbeteringen in domeinen zoals eiwitsequenties, tekstgeneratie en code.

Fred Zhangzhi Peng, Zachary Bezemek, Jarrid Rector-Brooks, Shuibai Zhang, Anru R. Zhang, Michael Bronstein, Alexander Tong, Avishek Joey Bose2026-03-09🤖 cs.LG

Diffusion Alignment as Variational Expectation-Maximization

Dit paper introduceert DAV, een raamwerk dat diffusiemodels optimaliseert voor downstream-doelen door het aligneren als een variational expectation-maximatie-proces te formuleren, waardoor zowel beloning als diversiteit behouden blijven zonder last te hebben van over-optimalisatie of mode-collapse.

Jaewoo Lee, Minsu Kim, Sanghyeok Choi, Inhyuck Song, Sujin Yun, Hyeongyu Kang, Woocheol Shin, Taeyoung Yun, Kiyoung Om, Jinkyoo Park2026-03-09🤖 cs.LG