Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation

Ce rapport de synthèse présente une vue d'ensemble structurée des techniques, des ensembles de données et des enjeux éthiques liés à l'utilisation des grands modèles de langage pour assister les chercheurs dans l'ensemble du cycle scientifique, de la découverte et l'expérimentation à la génération de contenu multimodal et à l'évaluation.

Steffen Eger, Yong Cao, Jennifer D'Souza, Andreas Geiger, Christian Greisinger, Stephanie Gross, Yufang Hou, Brigitte Krenn, Anne Lauscher, Yizhi Li, Chenghua Lin, Nafise Sadat Moosavi, Wei Zhao, Tristan Miller2026-03-09🤖 cs.AI

FragFM: Hierarchical Framework for Efficient Molecule Generation via Fragment-Level Discrete Flow Matching

Ce papier présente FragFM, un cadre hiérarchique innovant basé sur l'appariement de flux discret au niveau des fragments pour générer efficacement des graphes moléculaires avec un meilleur contrôle des propriétés, tout en introduisant le benchmark NPGen pour évaluer la génération de produits naturels.

Joongwon Lee, Seonghwan Kim, Seokhyun Moon, Hyunwoo Kim, Woo Youn Kim2026-03-09🤖 cs.AI

CAPS: Context-Aware Priority Sampling for Enhanced Imitation Learning in Autonomous Driving

Ce papier présente CAPS, une méthode de rééchantillonnage prioritaire contextuel utilisant des VQ-VAE pour équilibrer les données d'apprentissage par imitation et améliorer la généralisation des systèmes de conduite autonome dans le simulateur CARLA.

Hamidreza Mirkhani, Behzad Khamidehi, Ehsan Ahmadi, Mohammed Elmahgiubi, Weize Zhang, Fazel Arasteh, Umar Rajguru, Kasra Rezaee, Dongfeng Bai2026-03-09🤖 cs.LG

From Tokenizer Bias to Backbone Capability: A Controlled Study of LLMs for Time Series Forecasting

Cette étude démontre que, bien que les modèles de langage (LLM) présentent un certain potentiel pour la prévision de séries temporelles, leur performance reste limitée et ne surpasse pas systématiquement celle des modèles spécifiquement entraînés sur de vastes ensembles de données temporelles, une conclusion rendue possible par une méthodologie contrôlée visant à éliminer les biais introduits par les coupleurs de tokenisation.

Xinyu Zhang, Shanshan Feng, Xutao Li, Kenghong Lin, Fan Li, Pengfei Jia2026-03-09🤖 cs.AI

The Malicious Technical Ecosystem: Exposing Limitations in Technical Governance of AI-Generated Non-Consensual Intimate Images of Adults

En adoptant une approche centrée sur les survivants, cette étude expose l'écosystème technique malveillant facilitant la création d'images intimes non consensuelles générées par l'IA et démontre l'inefficacité des cadres de gouvernance actuels, tels que le rapport NIST AI 100-4, pour réguler ce phénomène.

Michelle L. Ding, Harini Suresh2026-03-09🤖 cs.AI

FourierSpecNet: Neural Collision Operator Approximation Inspired by the Fourier Spectral Method for Solving the Boltzmann Equation

Cet article présente FourierSpecNet, une méthode hybride combinant la méthode spectrale de Fourier et l'apprentissage profond pour approximer efficacement l'opérateur de collision de l'équation de Boltzmann avec une précision compétitive et une réduction significative des coûts de calcul, tout en garantissant la convergence vers la solution spectrale.

Jae Yong Lee, Gwang Jae Jung, Byung Chan Lim, Hyung Ju Hwang2026-03-09🤖 cs.AI

Scalable Multi-Task Learning for Particle Collision Event Reconstruction with Heterogeneous Graph Neural Networks

Cet article propose une architecture innovante de Réseau de Neurones à Graphes Hétérogènes (HGNN) intégrant l'élagage de graphes et l'apprentissage multi-tâches pour améliorer de manière scalable la reconstruction des événements de collision de particules, notamment celle des hadrons beaux, dans des conditions similaires à celles de l'expérience LHCb.

William Sutcliffe, Marta Calvi, Simone Capelli + 5 more2026-03-09⚛️ hep-ex

RM-R1: Reward Modeling as Reasoning

Le papier présente RM-R1, une nouvelle classe de modèles de récompense génératifs qui améliorent l'interprétabilité et les performances en traitant la modélisation de la récompense comme un tâche de raisonnement via un mécanisme de « chaîne de critères » et un pipeline d'entraînement combinant distillation et apprentissage par renforcement.

Xiusi Chen, Gaotang Li, Ziqi Wang, Bowen Jin, Cheng Qian, Yu Wang, Hongru Wang, Yu Zhang, Denghui Zhang, Tong Zhang, Hanghang Tong, Heng Ji2026-03-09🤖 cs.AI

ESGenius: Benchmarking LLMs on Environmental, Social, and Governance (ESG) and Sustainability Knowledge

Ce papier présente ESGenius, le premier benchmark complet évaluant les capacités des grands modèles de langage sur les connaissances en matière d'ESG et de durabilité via un ensemble de questions et un corpus de documents de référence, démontrant que l'approche RAG améliore significativement les performances, en particulier pour les modèles plus petits.

Chaoyue He, Xin Zhou, Yi Wu + 9 more2026-03-09💬 cs.CL

ContextBench: Modifying Contexts for Targeted Latent Activation

Le papier présente ContextBench, un benchmark évaluant la capacité à générer des entrées linguistiquement fluides activant des comportements ou caractéristiques latentes spécifiques dans les modèles de langage, et démontre que des variantes améliorées de l'optimisation évolutive de prompts surpassent les méthodes actuelles pour équilibrer efficacité d'élicitation et fluidité.

Robert Graham, Edward Stevinson, Leo Richter, Alexander Chia, Joseph Miller, Joseph Isaac Bloom2026-03-09🤖 cs.AI

Sysformer: Safeguarding Frozen Large Language Models with Adaptive System Prompts

Le papier présente Sysformer, une méthode novatrice qui améliore la sécurité des grands modèles de langage sans modifier leurs paramètres en apprenant à adapter dynamiquement les invites système en fonction des entrées utilisateur, réduisant ainsi considérablement les réponses nocives tout en augmentant la conformité aux demandes sûres.

Kartik Sharma, Yiqiao Jin, Vineeth Rakesh, Yingtong Dou, Menghai Pan, Mahashweta Das, Srijan Kumar2026-03-09🤖 cs.AI

SPoT: Subpixel Placement of Tokens in Vision Transformers

Le papier propose SPoT, une nouvelle stratégie de tokenisation pour les Vision Transformers qui positionne continuellement les tokens au niveau subpixel grâce à une recherche guidée par oracle, permettant ainsi de réduire considérablement le nombre de tokens nécessaires pour des prédictions précises tout en transformant la sparsité en un avantage stratégique.

Martine Hjelkrem-Tan, Marius Aasan, Gabriel Y. Arteaga, Adín Ramírez Rivera2026-03-09🤖 cs.LG

Temporal Misalignment Attacks against Multimodal Perception in Autonomous Driving

Ce papier présente DejaVu, une attaque exploitant le réseau in-vehicule pour créer des désalignements temporels subtils entre les flux caméra et LiDAR, qui dégradent sévèrement les performances de fusion multimodale dans la conduite autonome en provoquant des pertes de détection et de suivi d'objets, voire des accidents.

Md Hasan Shahriar, Md Mohaimin Al Barat, Harshavardhan Sundar, Ning Zhang, Naren Ramakrishnan, Y. Thomas Hou, Wenjing Lou2026-03-09🤖 cs.LG

Diverse and Adaptive Behavior Curriculum for Autonomous Driving: A Student-Teacher Framework with Multi-Agent RL

Cet article propose un cadre innovant d'apprentissage par curriculum automatique pour la conduite autonome, où un agent « enseignant » basé sur l'apprentissage par renforcement multi-agents génère dynamiquement des comportements de trafic variés pour entraîner un agent « étudiant », améliorant ainsi la robustesse et l'équilibre de la conduite par rapport aux méthodes traditionnelles.

Ahmed Abouelazm, Johannes Ratz, Philip Schörner, J. Marius Zöllner2026-03-09🤖 cs.LG