Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation

Deze survey biedt een gestructureerd overzicht van hoe grote multimodale taalmodellen het wetenschappelijke proces transformeren door onderzoekers te ondersteunen bij literatuuronderzoek, het genereren van ideeën, experimenten, contentcreatie en evaluatie, terwijl het ook de methoden, beperkingen en ethische risico's van deze AI-gestuurde ontdekkingen belicht.

Steffen Eger, Yong Cao, Jennifer D'Souza, Andreas Geiger, Christian Greisinger, Stephanie Gross, Yufang Hou, Brigitte Krenn, Anne Lauscher, Yizhi Li, Chenghua Lin, Nafise Sadat Moosavi, Wei Zhao, Tristan Miller2026-03-09🤖 cs.AI

FragFM: Hierarchical Framework for Efficient Molecule Generation via Fragment-Level Discrete Flow Matching

Deze paper introduceert FragFM, een hiërarchisch framework dat fragment-niveau discrete flow matching en een stochastische fragmentzak-strategie combineert om efficiënte, schaalbare en eigenschapsbewuste moleculaire generatie mogelijk te maken, terwijl het ook een nieuwe benchmark voor natuurlijke producten (NPGen) presenteert om de prestaties van generatieve modellen in de drugontdekking te evalueren.

Joongwon Lee, Seonghwan Kim, Seokhyun Moon, Hyunwoo Kim, Woo Youn Kim2026-03-09🤖 cs.AI

Aligning Compound AI Systems via System-level DPO

Dit paper introduceert SysDPO, een raamwerk dat Direct Preference Optimization uitbreidt naar Compound AI-systemen door deze als gerichte acyclische grafen te modelleren, waardoor effectieve systeemgerichte uitlijning mogelijk wordt ondanks niet-differentieerbare interacties en de complexiteit van het vertalen van systeemvoorkeuren naar componentniveau.

Xiangwen Wang, Yibo Jacky Zhang, Zhoujie Ding, Katherine Tsai, Haolun Wu, Sanmi Koyejo2026-03-09🤖 cs.AI

CAPS: Context-Aware Priority Sampling for Enhanced Imitation Learning in Autonomous Driving

Dit paper introduceert CAPS, een nieuwe methode die Vector Quantized Variational Autoencoders gebruikt om onbalans in imitatieleer voor autonoom rijden aan te pakken door zeldzame maar waardevolle data-prioriteit te geven, wat leidt tot aanzienlijke verbeteringen in de prestaties en generalisatie van het model.

Hamidreza Mirkhani, Behzad Khamidehi, Ehsan Ahmadi, Mohammed Elmahgiubi, Weize Zhang, Fazel Arasteh, Umar Rajguru, Kasra Rezaee, Dongfeng Bai2026-03-09🤖 cs.LG

From Tokenizer Bias to Backbone Capability: A Controlled Study of LLMs for Time Series Forecasting

Deze studie onthult dat de schijnbare effectiviteit van grote taalmodellen (LLM's) voor tijdreeksvoorspelling vaak wordt veroorzaakt door overfitting in de tokenisatie-laag in plaats van de modelcapaciteit zelf, en concludeert dat deze modellen, zelfs met geoptimaliseerde vooropleiding, niet consequent beter presteren dan modellen die specifiek zijn getraind op grote tijdreeksdatasets.

Xinyu Zhang, Shanshan Feng, Xutao Li, Kenghong Lin, Fan Li, Pengfei Jia2026-03-09🤖 cs.AI

FourierSpecNet: Neural Collision Operator Approximation Inspired by the Fourier Spectral Method for Solving the Boltzmann Equation

In dit artikel wordt FourierSpecNet voorgesteld, een hybride deep-learningframework dat de Fourier-spectrale methode integreert om de complexe botsingsoperator van de Boltzmann-vergelijking efficiënt en nauwkeurig te benaderen, waardoor de rekentijd aanzienlijk wordt verkort zonder in te leveren op de precisie voor zowel elastische als inelastische botsingen.

Jae Yong Lee, Gwang Jae Jung, Byung Chan Lim, Hyung Ju Hwang2026-03-09🤖 cs.AI

Entropic Mirror Descent for Linear Systems: Polyak's Stepsize and Implicit Bias

Dit artikel introduceert een variant van Polyak-stappenstappen voor entropische spiegelafdaal om lineaire systemen op te lossen zonder restrictieve aannames, waarbij sublineaire en lineaire convergentie wordt bewezen, de impliciete bias in de 1\ell_1-norm wordt versterkt, en een alternatieve, exponentiatieloze methode met bewezen convergentie wordt voorgesteld.

Yura Malitsky, Alexander Posch2026-03-09🤖 cs.LG